I sensori possono essere definiti, in modo del tutto generale, come "dispositivi che ricevono e rispondono ad un segnale o ad uno stimolo".
Prima di inziare a vedere come funzionano i sensori, dobbiamo cercare di capire quali sono le proprietà che in ingegneria vengono adoperate per definirne il funzionamento: quindi, essenzialmente, come si può andare ad operare la lettura del data sheet.
Un sensore (o elemento sensibile primario) è un elemento che opera a contatto con un tipo di energia, trasformandola in energia elettrica.
Si differenzia dal trasduttore perchè questo opera una trasduzione, trasformando un'energia in un altro tipo di energia.
Un dispositivo di misura è caratterizzato da una certa catena di trasduttori, da un sensore, che opera sull'ultimo stadio di energia in uscita dal trasduttore e dà in uscita un segnale di natura elettrica, tipicamente una corrente o una tensione, più o meno proporzionali allo stimolo che viene messo a contatto con il trasduttore.
Nei sistemi industriali di controllo di processo, l'insieme di questi elementi è anche definito come "trasmettitore".
Lo stimolo è l'energia che il corpo che voglio misurare fornisce al sensore: prende il nome di misurando quando è qualcosa che possiamo misurare e quantificare.
Esempio: il termometro. Quando lo metto a contatto col il mio corpo, questo cede energia elettrica, che fa dilatare l'alcol nella pipetta. L'alcol sale e la trasduzione viene fatta associando alla legge di dilatazione termina una scala graduata. Non c'è un sensore vero e proprio. Ma se il termometro fosse elettrico, invece che utilizzare il principio della dilatazione termica si utilizza una termocoppia: a seguito di una differenza di temperatura tra i giunti, si verificherebbe una differenza di potenziale (sensore), che genera un proporzionale alla differenza di temperatura tra i giunti. Infine, serve un'amplificazione, perchè il segnale ricevuto dalla termocoppia è piccolo e per vederlo sul display viene fatta una piccola elaborazione che amplifica il segnale. Questo è un dispositivo di misura.
I dispositivi di misura possono essere semplici, nel senso che c'è un solo elemento sensoriale, oppure possono essere complesse, che hanno tante catene di trasduzione.
Abbiamo un oggetto di cui vogliamo misurare qualcosa e un certo numero di sensori (4) utilizzati per misurare il misurando. Quello che viene fuori dal sensore deve essere inviato ad un elaboratore (computer) ma non tutti i segnali passano dallo stesso canale. Inoltre non tutti i sensori sono posti nello stesso modo sull'oggetto e non hanno tutti gli stessi ingressi.
I sensori 2, 3, 4 sono a contatto con l'oggetto, mentre l'1 è utilizzato a distanza. Il sensore 4, a differenza degli altri, ha un circuito di alimentazione: significa che è un sensore attivo (gli altri sono passivi). Il sensore 2 sputa l'uscita direttamente al multiplexer, cioè un canale di trasmissione dati, mentre i sensori 1 e 3 hanno bisogno di un interfacciamento: questo significa che il sensore 2 integra già al suo interno uno stadio di amplificazione, mentre gli altri due no e quindi il segnale deve essere amplificato. Una volta che tutti i segnali giungono su questo canale di comunicazione, per poter essere inviati all'elaboratore, richiedono chiaramente la conversione analogico/digitale. Noi siamo abituati a pensare che il sensore ci restituiscce un log di dati e siamo abituati ad analizzare dataset con tutti i timestamp. Ma questo è ciò che fa lo stadio di conversione analogico/digitale: il sensore restituisce sempre e solamente un segnale analogico, "proporzionale" allo stimolo o misurando posto in ingresso. Dopo il processo di amplificazione, filtraggio e conversione otteniamo il dato strutturato su cui poter fare elaborazione.
I sensori possono avere degli ingressi digitali, ma questo significa che possono prendere in ingresso i bit che possono venire, ad esempio, da sensori già condizionati e trasformati. Gli altri ingressi sono analogici e richiedono uno stadio di elaborazione. Negli ultimi anni l'elettronica di potenza si è rimpicciolita e quindi lo stadio di amplificazione, filtraggio e conversione è stato ridotto a scatoline molto piccole, integrate, a volta, direttamente nei case dei sensori. In questi tipi di sensori può essere dato in uscita direttamente un'interfaccia digitale.
Non abbiamo parlato del sensore 5: non misura qualcosa dell'oggetto ma misura qualcosa dell'ambiente. Prima abbiamo detto che la misura fornita dal sensore è più o meno proporzionale allo stimolo. In realtà c'è una funzione che regola questi ingresso e uscita e spesso tale funzione dipende da parametri ambientali. Quindi la misura di un parametro ambientale mi serve per ottenere quella che si chiama, in linguaggio sensoristico, la compensazione della misura.
Infine, il computer di controllo contiene a bordo la logica di gestione dell’oggetto e pilota gli attuatori in base alle letture che arrivano dai sensori 1 2 3 4 e 5.
L'abbiamo vista la scorsa lezione:
Dobbiamo imparare a leggere un data sheet, che è il documento tecnico che accompagna un sensore.
Un sensore è definito da due macro tipologie di caratteristiche: quelle definite statiche e quelle definite dinamiche. Banalmente, definiamo il sensore statico quello che mi dà una risposta istantanea, mentre quello dinamico richiede di attendere del tempo prima della risposta. Formalmente, diciamo che il sensore è statico se la costante tempo del sensore è molto più piccola di quella del processo che stiamo misurando, mentre un sensore si dice dinamico se la costante tempo del sensore è comparabile con quella del processo che stiamo misurando.
Questo pone un primo grosso bivio: se stiamo facendo caratteristica statica, avremo delle funzioni di tipo statico, del tipo ; se stiamo facendo caratteristica dinamica andiamo nel dominio della risposta in frequenza e della funzione di trasferimento.
Accuratezza e precisione mi danno un po' una caratterizzazione di quanto il sensore si avvicini alla misura reale. La sensibilità indica che il sensore fa variare l'uscita anche quando l'ingresso è piccolo.
C'è da evidenziare il fatto che non esiste il concetto di misura "reale": ogni strumento darà una sua versione della misura con dell'incertezza.
Di conseguenza la definiamo in questo modo:
La misura ottenuta da un sensore è la stima del misurando che fa quel sensore più o meno una certa incertezza, che è ineliminabile: , in cui è l'uscita del sensore, è la stima del misurando e è l'incertezza.
Questa stima sarà tanto più vicina al valore "vero" quanto più l'incertezza è vicina al valore 0. Ovviamente, il sensore ideale e migliore è quello con che tende a 0, ma non esiste, non si può misurare perfettamente qualcosa: principio di indeterminazione di Heisenberg.
Quello che si fa in pratica è prendere la misura esemplare, ovvero la misura fatta con la migliore tecnologia che si ha a disposizione, per avere la stima di , e poi si va a considerare quel valore come il valore vero da far misurare al sensore che sto costruendo e sto valutando.
Quindi si parte con una u stimata che assumiamo reale e si va a creare quella che è definita come la curva di taratura.
La taratura è quel procedimento che, a partire da un campione di riferimento, definisce le caratteristiche metrologiche del sensore nel momento in cui esso esce dalla fabbrica.
Sostanzialmente, se ho sulle ascisse la u (fornita da un sensore esemplare) e sulle ordinate ho la y (fornita dal sensore che ho sotto mano e che voglio quantificare), andrò a prendere tanti valori di u, andrò a misurare tanti valori di y e andrò a creare la curva che viene detta di caratteristica statica, o curva di taratura, che si ottiene per interpolazione dei valori (u, y). y è l'uscita del sensore con cui sto lavorando e u è l'ingresso, il misurando di cui conosco l'entità, intesa come misura esemplare fornita da un sistema ad elevatissime prestazioni. Questo viene fatto in un laboratorio di taratura. La curva viene fornita nel data sheet, in maniera grafica o funzionale (relazione ingresso-uscita).
Mentre questa è una procedura che viene fatta nel laboratorio del produttore del sensore e che viene data con il data sheet, la calibrazione viene fatta dall'utilizzatore. La curva di taratura viene fatta dal produttore su un range di misure molto elevato, viene poi operata con un metodo statistico su un range di condizioni operative molto elevato, sia in termini di temperatura, umidità, sia come range di misura. Nel laboratorio magari operiamo con temperature all'interno di un certo range e con misure che cadono all'interno di un range più piccolo rispetto a quello consentito dal sensore, quindi ci limitiamo ad andare a considerare il funzionamento del sensore in uno stato più piccolo di quello fornito dal produttore. Quindi, vogliamo misurare su un range ridotto e con condizioni ambientali meno variabili di quelle per cui è stata fatta la taratura. Per questo, rifacciamo la taratura, usando come ingresso quello di un sensore di natura qualitativa migliore del nostro. Andiamo a migliorare le proprietà del sensore, andando a limitare il range di utilizzo del sensore stesso.
Quindi la calibrazione è l'aggiustamento dei parametri del sensore per farne corrispondere l'uscita a valori rilevati accuratamente con un altro strumento all'interno dell'ambiente di utilizzo, e deve essere ripetuta periodicamente per mantenere bassa l'incertezza.
Il inglese calibrazione è adjustment (che rende bene l'idea), ma attenzione che taratura in inglese è calibration.
Partiamo dal concetto di curva di taratura.
La curva di taratura o caratteristica statica è la funzione, generalmente di tipo non lineare, che lega il segnale fornito dal sensore al misurando .
Se abbiamo questa curva, che di solito è non lineare, ma che nel nostro specifico caso è lineare, oppure approssimata da una retta, il rapporto che c'è tra la variazione dell'uscita e la variazione dell'ingresso è costante (perchè è una retta) e prende il nome di sensibilità:
La sensibilità di un sensore è definita come il rapporto tra la variazione della misura a seguito della variazione del misurando.
La sensibilità, ovviamente, mi rappresenta la pendenza della curva di taratura.
Se guardando il data sheet vedo che la curva è poco pendente, allora la sensibilità è bassa rispetto ad una curva molto pendente. Graficamente si vede subito. Rappresenta la capacità del sensore di variare la misura a fronte di una variazione piccola dell'ingresso.
Nei sensori questa è chiamata anche costante di trasduzione o guadagno statico.
Alle volte vengono scambiati impropriamente sensibilità e risoluzione nel gergo comune.
La risoluzione indica la più piccola variazione che sono in grado di misurare dell'ingresso, quindi è la più piccola variazione dell'ingresso che mi restituisce una variazione apprezzabile dell'uscita.
Quindi un sensore risoluto è un sensore che è in grado di percepire piccole variazioni del misurando.
Abbiamo visto che la relazione che mi lega la y alla u, ovvero la curva di taratura fatta dal laboratorio metrologico a seguito della produzione di uno strumento e definita nel data sheet, può essere approssimata in maniera lineare, ottenendo un sensore lineare, in cui la variazione tra l'uscita e l'ingresso è comunemente definita sensibilità. A parte viene anche definita la risoluzione.
Abbiamo detto che è linare. In realtà non lo è mai. La di solito è logaritmica, esponenziale, una potenza di un certo ordine o polinomiale.
Da cosa dipenderà la curva di taratura di un sensore? Principalmente dal principio fisico su cui si basa il sensore, perchè è il principio fisico che mi lega il misurando alla grandezza elettrica.
La u è il valore del misurando, la y è l'uscita del sensore. La y viene misurata in Volt o in Ampere. Ma se io sto misurando una temperatura, non mi interessa sapere che varizione in volt si è verificata. Nella realtà, io non voglio sapere y, ma voglio conoscere u: quindi se è vero che , io voglio conoscere . È per questo che la maggior parte delle caratteristiche statiche dei sensori vengono approssimate come lineari, perchè se è lineare, conoscendo una conosco anche l'altra. Divido per la sensibilità del sensore: l'uscita viene divisa per la sensibilità del sensore per riottenere l'ingresso.
È comodo avere una caratteristica lineare, perchè ci basta dividere per la sensibilità. Però questo porta a degli errori: li misuriamo con accuratezza, precisione ed errore di non linearità. Cominciamo a definire il fatto che quando noi abbiamo un sensore, la curva di taratura che ci danno non è esattamente lei, in realtà c'è un bound all'interno del quale ci possiamo trovare. In questo bound c'è tutta quella che abbiamo visto prima, ovvero l'incertezza.
L'accuratezza è il termine usato per esprimere quanto la misura si avvicina al valore "vero" del misurando, ed è specificata a livello ingegneristico da un unico valore, il cui significato è quello di massimo scostamento tra le misure ("letture") fornite dal sensore e la curva di taratura ideale sull'intero campo di misura.
Sostanzialmente mi dice quanto, mediamente, il mio sensore, quando mi restituisce una lettura, si discosta da quella che mi era stata data dal costruttore.
La definiamo in termini di inaccuratezza (non di accuratezza) e sarà la differenza tra il valore vero e il valore misurato più distante, normalizzato o sul fondo scala (1° formula) o sulla misura stessa (2° formula) e di solito è espresso in termini percentuali: oppure .
Il fondo scala è il range massimo in cui può variare l'ingresso. Questa accuratezza espressa come inaccuratezza mi dà una stima di quanto mediamente il mio sensore misura vicino al valore vero dell'oggetto che sto misurando.
L'accuratezza è uno dei componenti che contribuiscono all'incertezza. Su alcuni data sheet l'incertezza a volte viene definita accuratezza e l'accuratezza così come l'abbiamo definita viene chiamata trueness: al prof questa definizione non piace e non serve all'esame ma è solo in caso ci imbattiamo in letture che li chiamano in questo modo.
La mancanza di accuratezza deriva, principalmente, da errori sistematici nella misura, dovuti, ad esempio, da calibrazione errata del sensore stesso (alla definizione dello zero è stato, per sbaglio, introdotto un offset). Si corregge, appunto, con la calibrazione del sensore. La più semplice è la calibrazione software: qualunque sia il sensore, acquisisco per 1 minuto l'oggetto a riposo, so che l'oggetto a riposo mi deve dare una misura zero (ad esempio la velocità), ma se vedo che la misura che mi dà è di 1m/s, allora scalerò 1m/s a tutte le future misurazioni.
La precisione mi rappresenta quanto debba essere ripetuta la misura. Se io ripeto la misura 100 volte, mi aspetto che la misura sia più o meno sempre la stessa.
Il termine precisione (o ripetibilità) è riferito alla riproducibilità della misura, ovvero esprime la dispersione di successive misure dello stesso misurando nelle medesime condizioni (stesso valore vero).
Formalmente si esprime come , ovvero in funzione del massimo della differenza tra due curve di calibrazione: se io faccio variare il misurando con continuità e creo la mia curva in laboratorio, e poi rifaccio il procedimento creando un'altra curva, voglio che queste due curve siano identiche. Il massimo scostamento tra queste due curve è l'errore di ripetibilità della misura.
La precisione fornisce una stima della deviazione standard dell'errore associato ad un set di misure relativo al medesimo misurando. La precisione è influenzata da errori casuali e, pertanto, può essere aumentata incrementando il numero di misure e mediandole tra di loro.
Si nota come i concetti di accuratezza e di precisione siano simili, associati entrambi all'incertezza che si genera dal processo di misura, ma uno mi dice quanto mi sto avvicinando mediamente alla misura vera, l'altro è quanto spesso mi sto scostando dal mio bersaglio.
Questi due termini possono essere definiti in molte maniere. Dal punto di vista visivo, se supponiamo che il valore reale è la curva tratteggiata in nero in figura, la misura rossa sarà una misura accurata (perchè il valore medio coincide con quello della misura reale) ma imprecisa, perchè oscilla. Il valore verde, invece, sarà preciso, perchè è praticamente la traslazione del valore reale, ma inaccurato, perchè il valore medio non è il valore reale.
Con un'analogia simile, possiamo vedere che, ovviamente, il comportamento A è un comportamento preciso e accurato; D è impreciso e inaccurato; B è preciso ma inaccurato; C è accurato ma impreciso.
Un ulteriore modo di vedere la cosa è questo: prendo i valori dati dal sensore (ascisse), la probabilità che un certo valore venga dato dal mio sensore (ordinate) e il valore esatto del misurando (m). Ripeto la misura 1000 volte e ottengo la misura data più spesso (), che è associata a . Faccio una curva di probabilità dei valori che ho ottenuto: la distanza tra e mi dà la misura dell'inaccuratezza, mentre l'ampiezza della campana è misura dell'imprecisione. Io infatti vorrei ottenere, su 1000 misure, sempre lo stesso valore.
All'esame non importa quale versione diciamo, l'importante è il concetto.
È un'altra proprietà che si trova nei data sheet, poco utile da un punto di vista pratico, ma utile per evitare errori.
Il termine rangeability (o turn down) esprime di solito il rapporto tra l'estremo superiore (fondo scala) e quello inferiore, normalizzato all'unità, del campo di misura nel quale si applicano i dati di accuratezza e precisione.
Esempio: un sensore di portata con fondo scala 300kg/s e accuratezza dell'1%, viene attestato nel data sheet con rangeability di 20:1. Significa che l'accuratezza dell'1% riportata dal produttore è stata validata in un range tra 15 (300/20) e 300 (300/1).
Semplicemente prendiamo il fondo scala, lo dividiamo per gli estremi della rangeability e abbiamo gli estremi reali in cui valgono l'accuratezza e la precisione date dal produttore.
Prendiamo i data sheet di due sensori: sembra che un sensore sia nettamente meglio ma magari la rangeability mi garantisce le proprietà su un range piccolissimo, l'altro magari dà una prestazione inferiore ma su un range più ampio.
Quindi è una proprietà importante in fase di acquisto del sensore.
La caratteristica statica mi serve a definire il comportamento di un sensore che mi risponde in maniera istantanea rispetto al processo che sto misurando. Quando questo non avviene, sono costretto ad introdurre qualcosa che mi dia una misura del tempo di cui ha bisogno il sensore per fornire una misura che sia quella che io voglio del mio processo. Quindi, sostanzialmente, tutte queste caratteristiche dinamiche si portano dietro un'informazione di natura temporale.
La risposta di un sensore non è in generale istantanea: il segnale fornito inseguirà una brusca variazione della variabile misurata, con un ritardo più o meno rilevante, a seconda delle caratteristiche dinamiche del sensore stesso, e di aspetti inerenti la sua installazione.
Il comportamento dinamico del sensore, almeno per piccole variazioni attorno a un punto di lavoro , può essere descritto dalla caratteristica dinamica (ovvero dalla funzione di trasferimento). Nel data sheet questa cosa, ovvero la funzione di trasferimento, viene descritta tramite una o più proprietà dinamiche, come la banda passante (intervallo di frequenze che il sensore è in grado di misurare), tempo di risposta (tempo necessario al sensore per arrivare a regime, nel caso in cui ci sia una variazione dello stimolo), eccetera.
La dinamica del sensore è spesso trascurabile rispetto a quella del processo, tuttavia per particolari applicazioni (a prestazioni molto elevate) può essere importante considerare tale dinamica e gli effetti (soprattutto di ritardo) che essa comporta.
In condizioni statiche un sensore è completamente descritto dalla caratterizzazione statica, fondo scala, accuratezza…
Quando lo stimolo varia con una certa velocità allora l'uscita del sensore si adeguerà allo stimolo, ma non sarà in grado di farlo in maniera istantanea: in questo caso la caratteristica statica del sensore diventa variabile nel tempo e si parla di funzione di trasferimento.
Questi sensori dinamici sono descritti, banalmente, da un'equazione differenziale che lega le derivate successive delle uscite all'ingresso.
Di solito queste funzioni di trasferimento che troviamo nei sensori sono del primo o del secondo ordine.
I sistemi del primo ordine sono quei sistemi che per natura costruttiva o principio fisico hanno un elemento che accumula energia (termometro); i sensori del secondo ordine sono quei sensori che, invece, hanno due elementi che immagazzinano energia (la molla dello smorzatore).
Una funzione di trasferimento di primo ordine è del tipo: . Sarà caratterizzata da e da . Nei data sheet quello che troviamo scritto non è l'equazione ma sono tre caratteristiche:
frequenza di cutoff: è la frequenza alla quale l'uscita del sensore diminuisce del 30% circa il valore di tensione (corrente) di uscita
tempo di risposta: è il tempo che impiega il sensore a fornire un'uscita pari al 90% del valore di regime in risposta ad uno stimolo a gradino
ritardo di fase: rappresenta lo sfasamento tra il segnale di uscita del sensore e lo stimolo di ingresso (tipicamente per stimoli sinusoidali)
Sono di fatto equivalenti, quindi di solito ce n'è una sola nei data sheet. Quindi in un caso stiamo vedendo la risposta nel tempo, nell'altro caso vediamo la risposta in frequenza. Ci sono anche regole euristiche che mi legano il tempo di salita o di risposta alla frequenza di cutoff.
Parliamo di sistemi massa-molla, con due elementi che immagazzinano energia, descritti da una funzione di trasferimento che è una derivata seconda: .
Sono sistemi che oscillano se sottoposti a ingressi che variano nel tempo: è un sistema che ha una frequenza propria e ha uno smorzamento.
La parte tra parentesi non gli interessa, era solo per rinfrescare la memoria [Lo smorzamento (damping) è la progressiva riduzione dell'oscillazione del sensore con risposte superiori a quelle del primo ordine: critically damped (è il comportamento che si verifica quando la risposta è la più veloce possibile senza sovraelongazione); underdamped (è il comportamento che si verifica quando è presente una sovraelongazione); overdamped (è il comportamento che si verifica quando non c'è sovraelongazione e la risposta è più lenta del caso critico)]
Quello che caratterizza la dinamica di un sensore del secondo ordine è la risposta in frequenza, e questa la troviamo esattamente così nei sensori. Troveremo un grafico in cui si andrà a vedere sull'asse delle ascisse la frequenza dello stimolo, sull'asse delle ordinate l'amplificazione del sensore ad uno stimolo dato a quella frequenza.
Non spiega adesso questa curva come si legge, lo farà quando parleremo dell'accelerometro.
Chiaramente vediamo che c'è un range iniziale in cui c'è qualcosa della misura che non mi torna e anche un range più avanti in cui c'è qualcosa che non va.
La nonlinearità è una fonte di errore specificata nei data sheet per i sensori la cui caratteristica statica (nonlineare) è approssimabile con una linea retta: è la massima deviazione della caratteristica statica reale dalla sua approssimazione lineare.
Quando vado a caratterizzare un sensore, la curva di taratura è tipicamente non lineare: all'interno di un certo intorno del mio misurando , posso andare ad approssimare la curva. Questa approssimazione sarà abbastanza buona tra un certo ed un certo : io devo andare a considerare la variazione su questo range. Da a , la differenza tra la curva non lineare e quella lineare è piccola, ma, rispettivamente, prima e dopo questi valori ho una variazione che cresce.
Questa variazione mi impatta sull'incertezza: questo errore di non linearità mi si va a sommare sull'incertezza della misura. L'errore di non linearità è un errore che viene dato nei data sheet dei sensori e mi dice esattamente la massima deviazione della caratteristica statica reale dalla sua approssimanzione lineare.
I produttori spesso non pubblicano la massima deviazione, ma a volte specificano l'errore di non linearità nel range in cui la linearità è massima, oppure non definiscono correttamente il metodo che usano per l'approssimazione.
Ci sono altri due tipi di errori di non linearità che possono succedere ma che sono molto meno importanti da conoscere come data sheet e sono l'isteresi e i fenomeni di saturazione e dead band.
L'isteresi è il fenomeno per cui, in base alla direzione della variazione dello stimolo, cambia la lettura del sensore.
L'errore di isteresi è una devizione dell'uscita del sensore per un dato valore del segnale di ingresso che dipende dalla direzione di variazione dello stesso.
Supponiamo che sia una temperatura. Parto da a e vado in b, da b vado in d passando per c, in cui faccio una misura (pallino blu): ho una temperatura corrispondente a quel valore di uscita. Continuo a raffredare il materiale fino ad arrivare alla temperatura e poi risalgo nuovamente fino a tornare alla temperatura b. Ma ora se rimisuro la temperatura per lo stesso valore di uscita di prima, ottengo un valore diverso di temperatura. Quindi alla stessa uscita sensoriale, ho 2 valori diversi dello stimolo, a seconda che io quello stimolo l'abbia prima alzato e poi abbassato, o prima abbassato e poi alzato. I sensori che presentano questo comportamento anomalo sono chiamati sensori ad isteresi: non sono quelli ideali, ma alcuni fenomeni si basano sul principio fisico, ad esempio del magnetismo, in cui l'isteresi è naturalmente presente e va tenuta in considerazione.
Un'altra tipologia di sensori sono quelli che hanno una dead band, cioè una zona morta, per cui è necessario che lo stimolo superi un certo valore prima che l'uscita possa essere apprezzata. Qui non stiamo parlando di una variazione minima dello stimolo, ma stiamo parlando del fatto che lo stimolo, se non esce dalla dead band, non viene letto dal sensore.
Per dead band si intende la non sensibilità del sensore in un range specifico di valore dello stimolo: l'uscita rimane confinata ad un valore (tipicamente zero) all'interno di tutta la "zona morta".
Infine, c'è la saturazione: ogni sensore ha il suo fondo scala, se andiamo a misurare oltre al fondo scala non otteniamo la misura.
La saturazione o nonlinearità di fine corsa si verifica quando si oltrepassano i limiti operativi del sensore: oltre un certo livello dello stimolo di ingresso il segnale di uscita non varia più.
La resistenza allo shock è, invece, il valore massimo che il sensore è in grado di sopportare senza rompersi.
Consideriamo la caratteristica reale del mio sensore, ovvero la reale curva di taratura. La curva più sottile è quella ottenuta per linearizzazione. Intorno c'è una banda, che è la banda dell'incertezza. Dentro quest'incertezza c'è l'inaccuratezza, l'imprecisione, l'errore di non linearità, l'eventuale errore d'isteresi, più gli errori di misura umani, fino al naturale limite tecnico e costruttivo del sensore. Quindi, idealmente, se riuscissimo a limitare tutti gli errori eliminabili avrebbo un bound sottilissimo intorno alla curva, però non possiamo stingerlo oltre perchè poi arriviamo ai limiti costruttivi del sensore che non ci permettono di andare oltre quel livello di incertezza.
Come si attua fisicamente questa incertezza?
Se consideriamo uno stimolo con valore vero, ci aspettiamo un valore corrispondente della funzione di trasferimento risultante dall'uscita. Io ho e lo voglio misurare, ho acquistato un sensore lineare (con un certo errore), quindi mi aspetto . Invece la funzione di trasferimento reale mi farà corrispondere questo valore a cui corrisponderà un'uscita . Noi dobbiamo fare l'inverso: abbiamo , non conosciamo la funzione reale perchè abbiamo solo quella approssimata con l'errore di incertezza, quindi usiamo questa funzione lineare per calcorarci lo stimolo. Ecco che invece che avere otteniamo . Il tra le due misure corrisponde all'incertezza complessiva del sistema.
Le specifiche di immagazzinamento sono limiti ambientali non operativi ai quali i sensori devono essere soggetti durante un periodo specificato, capaci di garantire il mantenimento delle proprietà del sensore durante le normali condizioni operative.
Molto spesso nei data sheet si trovano due valori di condizioni operative. Una è la condizione ambientale in caso di funzionamento del sensore, tipicamente 4°-30°/40° sui sensori consumer. L'altra, invece, sono le condizioni ambientali in stockaggio e sono chiaramente un sovrinsieme di quelle operative. Nel tempo il sensore andrà a degradare: si parla di instabilità del sensore, che non è un fault.
Si parla di instabilità di breve periodo, che è legata alla ripetibilità dello strumento: il sensore ogni tanto cambia misura rispetto a quella che mi aspetto.
L'instabilità di lungo periodo è dovuta all'invecchiamento dei componenti: è molto difficile da individuare.
Quindi quando si sceglie un sensore, cosa bisogna considerare?