Mai sottovalutare la calibrazione

Fig 1 SDC16729

Chi dovrebbe calibrare gli strumenti di misura? Quando? E come? Sembra facile rispondere alle domande sulla calibrazione della strumentazione, a patto però di non andare troppo in profondità sulla questione. Esistono diversi livelli di complessità riguardo alla calibrazione, aspetti che meritano un’attenzione particolare specialmente da parte degli utilizzatori che abbiano l’esigenza di dimostrare che la calibrazione della strumentazione da loro utilizzata è non solo tracciabile, ma anche adeguata all’utilizzo che ci si propone di farne.


Diffidare dalle facili risposte
Non deve sorprendere se le decisioni riguardo la calibrazione siano spesso prese con una certa dose di superficialità.

  • L'acquisto di strumenti di misura è normalmente una spesa piuttosto importante e come tutti gli investimenti sostanziosi viene valutato con grande attenzione da parte del management, se non altro per motivi finanziari. Non sorprende invece che le piccole spese operative, come la calibrazione, possano apparire relativamente poco importanti, e che quindi venga loro solitamente riservata poca importanza e attenzione.
  • Da un punto di vista operativo, la calibrazione è una seccatura. I possessori di strumenti di misura tendono ad avere lo stesso atteggiamento nei confronti della calibrazione di quella che le persone hanno nei confronti della revisione della propria caldaia, o delle altre piccole incombenze periodiche di cui non si percepisce immediatamente il valore. In più la calibrazione costa denaro, e gli strumenti rimangono alcuni giorni fuori servizio.
  • I produttori di strumenti hanno risposto alla scarsa attenzione da parte dei clienti verso la calibrazione fornendo loro delle linee guida – generalmente specificano un intervallo standard di 12 mesi tra le calibrazioni - ma, come vedremo, l'idea di un “intervallo standard” è fuorviante.

Se invece si presta attenzione alle problematiche legate alla calibrazione - il chi, il quando e il come - inizia a dipanarsi un quadro molto più complesso di quanto ci si aspettasse, svelando altre e più complesse questioni. Questo processo in realtà, inizia ancor prima che la prima domanda - quanto spesso lo strumento deve essere calibrato? - sia stata posta. Perché questa nasconde in effetti una più grande questione: che cos'è la calibrazione?
Curiosamente, nonostante i molti tentativi di armonizzazione, non esiste una chiara definizione di calibrazione. Persino lo standard di mercato per la calibrazione, l'Iso17025, non offre una definizione sulla quale i tecnici di tutto il mondo possano concordare. Formalizza la terminologia della calibrazione, ma la decisione su come interpretare questa terminologia è lasciata alle regolamentazioni locali. In UK, per esempio, la United Kingdom Accreditation Service detta una interpretazione restrittiva dello standard per gli enti calibratori operanti in UK. Autorità di altri stati invece ne danno una interpretazione molto più libera. Ciò significa che una calibrazione Iso17025 eseguita in uno paese, sarà differente da un'altra calibrazione sempre Iso17025 eseguita in un altro paese. In altre parole, lo standard in realtà non è uno standard. Questa difficoltà nello stabilire una definizione univoca è una caratteristica fondamentale della calibrazione, che riflette diversi atteggiamenti degli utenti nei confronti dell’incertezza di misura.
La calibrazione più semplice verifica lo stato dello strumento al momento della verifica, definendo quale sia il margine di errore che deve essere considerato durante le misurazioni che si sta per effettuare. L'utilizzatore sta quindi accettando almeno questo margine di errore iniziale, ma senza alcuna indicazione sull’andamento con il quale il margine di errore dello strumento si modificherà nel tempo. A un livello successivo la calibrazione metterà in correlazione lo stato dello strumento con le specifiche del costruttore, per stabilire se questo rientra nelle specifiche stesse o se ne è fuori. A un livello ancora superiore, si possono prevedere gli adeguamenti necessari per portare lo strumento verso un funzionamento “ottimale”, ovvero in un punto centrale delle sue specifiche. In questo caso però, senza un set di risultati “prima” e “dopo”, l'utilizzatore non può stabilire se lo strumento rientrasse nelle specifiche prima della calibrazione. Questo potrebbe avere conseguenze, per esempio, in un ambiente produttivo, dove le procedure di controllo della qualità dovrebbero prevedere un richiamo di prodotti per il rischio di falsi “Passed” dovuti a test eseguiti con uno strumento che sia risultato a posteriori fuori dalle specifiche. Questo livello di calibrazione deve quindi prevedere schede tecniche di risultati “prima della calibrazione” e “dopo la calibrazione”, per aiutare nella gestione di questo rischio. Persino in questo caso, tuttavia, possono sorgere ulteriori dubbi, visto che anche quando un ente calibratore certifica che lo strumento è dentro le sue specifiche, l'utilizzatore ha il diritto di domandarsi ‘come posso essere certo che la calibrazione stessa non stia dando un falso “Passed”?’ Dopo tutto, c'è differenza tra una calibrazione eseguita a 100 test point ed una eseguita a 5.000 test point. Uno strumento che resti nelle specifiche dopo 100 test point potrebbe anche esserlo dopo altri 4.900. Ma, ed è una possibilità, potrebbe anche non esserlo più. Quindi qual è il valore di questa extra certezza offerta dai 4.900 test point aggiuntivi? Potrebbero 900 test point aggiuntivi fornire una sufficiente sicurezza? Oppure 2.900? Oppure persino la sicurezza fornita da 5.000 test point potrebbe non essere sufficiente? La domanda sulle incertezze è la ragione per la quale non c'è un intervallo “normale” o “standard” tra le calibrazioni; e nessuna definizione standard della calibrazione. In un mondo ideale, infatti, ognuno degli utilizzatori dovrebbe fissare le specifiche del processo di calibrazione in base alla propria applicazione e alle condizioni operative. In generale, più elevato è il potenziale danno (a livello operativo o finanziario) derivante da piccoli errori nei risultati dei test, e più frequente e accurata dovrebbe essere la calibrazione. Questo significa che, per alcuni utilizzatori, il solo processo di specificazione di una appropriata procedura di calibrazione può risultare complesso e assorbire parecchio tempo.

Scelte sulla calibrazione
Nella sua forma più rigorosa, lo schema della calibrazione dovrebbe basarsi su modelli statistici che calcolano il livello di incertezza massimo che l’utente può accettare nelle prestazioni dello strumento, in funzione della quantità di test eseguiti e della precisione della strumentazione utilizzata durante la calibrazione. In uno strumento di test multifunzione, questo processo di specifica può richiedere sforzi di progettazione non banali, e risultare nella necessità di misurare migliaia di test point durante la calibrazione. Il miglior modello statistico, tuttavia, non elimina l'elemento di valutazione da parte dell'utilizzatore: anche quando il livello di incertezza è stato stimato con esattezza, l'utente può valutare e decidere se quel livello sia adeguato ad una specifica applicazione. Inoltre, per ogni giorno trascorso dopo la calibrazione, le prestazioni dello strumento possono deviare del punto ottimale al quale è stato calibrato e, con buona probabilità, peggiorare gradualmente. La velocità di questo degrado è inevitabilmente sconosciuta, sebbene possa essere stimata alla luce dell'esperienza, e con le indicazioni da parte del costruttore (specifiche di aging). Anche in questo caso deve essere applicata una scelta riferita al rischio che questa velocità di degrado possa essere stimata erroneamente. Queste scelte hanno importanti conseguenze commerciali. Per esempio, un contractor di opere di installazione che operi in un’area remota sarebbe esposto a gravi sforamenti dei costi se l’apparato installato dovesse presentare malfunzionamenti dovuti a misure errate. In aree con condizioni ambientali difficili o proibitive, è costoso inviare una squadra di riparazione per correggere un lavoro che avrebbe dovuto essere già stato fatto correttamente la prima volta. Per questo utilizzatore, ci sono grossi incentivi ad evitare che siano emessi dei falsi “Passed”, per esempio rilasciati da un Vna portatile che operi fuori dalle sue specifiche. Un utente come questo dovrebbe richiedere un basso livello di incertezza di misura nei risultati del test di calibrazione.
Per altri tipi di applicazioni, giudizio ed esperienza possono essere esercitati senza l'uso di complessi modelli statistici. In molti casi, è sufficiente osservare lo schema dei risultati di calibrazione: se uno strumento viene ricalibrato per la prima volta dopo 12 mesi di utilizzo, ed i risultati “prima della calibrazione” mostrano che era rimasto nelle specifiche con un ampio margine, è ragionevole continuare ad effettuare le calibrazioni ad intervalli di 12 mesi anche in futuro. Allo stesso modo, alcuni utenti potrebbero essere in grado di utilizzare le tracce di riferimento per verificare periodicamente le prestazioni di uno strumento senza sottoporlo a una calibrazione completa. Ciò è appropriato, per esempio, per utilizzatori di un Otdr, che possono rilevare una traccia di un cavo di riferimento quando lo strumento viene messo in opera per la prima volta (o quando venga nuovamente calibrato), e prendere poi periodicamente misurazioni sullo stesso cavo per stabilire la portata delle variazioni sulle prestazioni “ottimali”. L'utilizzatore può fissare un limite e, quando la variazione dovesse eccedere questo limite, lo strumento viene rinviato per ulteriori approfondimenti ed eventuale calibrazione in laboratorio.

La guida utente alla calibrazione
Cosa dovrebbero fare gli utilizzatori per ottimizzare il ciclo di calibrazione? Sono tre le regole basilari utilizzabili:

  1. Comprendere e controllare le condizioni operative nelle quali lo strumento viene utilizzato. Dove possibile, tenere gli strumenti da banco statici, in un ambiente controllato per temperatura e umidità. Controlli così severi relativi all'uso di strumenti portatili sono impossibili, tuttavia è importante formare gli utilizzatori a comprendere la differenza tra procedure di gestione accettabili e inaccettabili (ad esempio, la caduta a terra accidentale di un Vna portatile con struttura rinforzata può essere accettabile, ma il suo utilizzo come martello improvvisato non lo è).
  2. Mantenere un regolare intervallo di calibrazione al fine di approfittare dei benefici di manutenzione a questa associati, come pulizia e lubrificazione. La principale causa di guasto degli strumenti di test è il surriscaldamento causato dall'accumulo di polvere e lanugine all'interno del case. Una calibrazione regolare è in grado di eliminare questi problemi.
  3. Richiedere sempre consigli ai produttori degli strumenti nel prendere decisioni sulle specifiche e sugli intervalli di calibrazione. I produttori possono fornire indicazioni sulla probabile reazione dello strumento alle condizioni di esercizio alle quali si intende esporre quello strumento e possono anche fornire, quando necessario, il quadro statistico per supportare il processo di valutazione e decisione riguardo i margini di errore, ed il livello di incertezza che è possibile raggiungere nell'effettuare le misurazioni.

Dopo aver considerato tutti gli scenari di utilizzo e aver eseguito i calcoli per le incertezze di cui sopra, è sempre e comunque l'utilizzatore che deve prendere una decisione riguardo la calibrazione. E chi conosce meglio dell'utilizzatore la propria applicazione? Abbiate fiducia nel vostro giudizio, purché basato su un analisi completa del contesto di misura.

Pubblica i tuoi commenti