Una relazione di laboratorio è il documento che riassume e analizza un esperimento scientifico svolto in laboratorio.
Il suo scopo è duplice:
Fornire una registrazione accurata delle attività svolte
Offrire un'analisi critica dei risultati ottenuti, collegandoli ai principi teorici di riferimento.
Una relazione ben scritta deve essere chiara, completa e ordinata, e deve includere dati, grafici e spiegazioni che permettano di replicare l’esperimento in modo affidabile. Questo non solo aiuta a verificare i risultati ma contribuisce alla comprensione del metodo scientifico.
Il metodo scientifico, introdotto da Galileo Galilei, è alla base delle relazioni di laboratorio e della scienza moderna. Galileo, considerato il padre del metodo sperimentale, rivoluzionò la conoscenza scientifica attraverso un approccio sistematico che combinava osservazione, sperimentazione e analisi matematica. Nella relazione di laboratorio, questo metodo è ripreso per descrivere ogni passaggio dell’esperimento: dall’osservazione iniziale alla formulazione delle ipotesi, fino alla verifica sperimentale e all’interpretazione dei dati. Seguendo il metodo galileiano, si garantisce un processo rigoroso e replicabile.
Il metodo scientifico quindi, ideato da Galileo Galilei, è il cuore di ogni relazione di laboratorio, poiché fornisce un approccio rigoroso e sistematico per raccogliere e analizzare i dati. Si articola in fasi fondamentali:
Osservazione e formulazione del problema: Galileo poneva domande precise a partire da fenomeni osservabili.
Ipotesi: Seguendo il suo esempio, si formulano spiegazioni razionali basate su conoscenze preesistenti.
Sperimentazione: Come Galileo dimostrò nei suoi esperimenti, è essenziale progettare test replicabili.
Analisi dei dati: Galileo analizzava i risultati matematicamente, confrontandoli con le teorie.
Conclusione: I risultati verificano o confutano l’ipotesi e generano nuove domande.
Una relazione documenta ogni fase con chiarezza e precisione, rendendo l’esperimento replicabile, come auspicava Galileo per il progresso scientifico.
Uno schema semplice e personalizzabile per una relazione di laboratorio è disponibile a questo link.
Gli esperimenti di fisica si concentrano sullo studio dei fenomeni naturali, come il moto, la luce, il suono o l’elettricità, per comprendere le leggi fondamentali della natura. Attraverso il metodo scientifico, si parte da osservazioni del mondo reale per formulare ipotesi e verificarle con esperimenti. Ad esempio, si può studiare come varia la velocità di un oggetto in caduta o analizzare il comportamento di una corrente elettrica in un circuito.
Questi esperimenti, spesso svolti con strumenti come cronometri, bilance o multimetri, permettono di collegare concetti teorici e dati pratici, sviluppando una comprensione approfondita e rigorosa del mondo fisico.
Nel creare relazioni di laboratorio, è bene iniziare ad usare strumenti che ci potranno essere utili sul lavoro, in primis excel, come testimonia giustamente il meme qui a destra.
Excel è lo strumento d'eccellenza negli ambienti aziendali, ed è ideale per realizzare tabelle, grafici e per iniziare a lavorare con i dati in modo sistematico. È uno strumento estremamente versatile, utilizzato in settori come meccanica, logistica, informatica, finanza e tanti altri.
Una funzionalità chiave che è molto interessante nelle relazioni di laboratorio è il curve fitting, che permette di trovare la funzione matematica che meglio descrive un insieme di dati sperimentali.
Per approfondire questo tema, suggerisco in ordine di complessità, i seguenti link:
Un esempio di come impostare una curva di best fit in excel con dei dati sperimentali è disponibile a questo link (le barre di errore (error bars) funzionano in Microsoft Excel ma non in Google Sheets).
Per chi desidera andare oltre ed è appassionato di programmazione, il linguaggio Python offre librerie semplificati di analisi dati come pandas per gestire tabelle, matplotlib e seaborn per creare grafici, e librerie come numpy e scipy per curve fitting e analisi numeriche. Usare Python permette di sviluppare competenze sempre più richieste in ambiti scientifici e professionali, specialmente se intendiamo lavorare nell'ambito di programmazione software / data analysis / data science / AI.
Si possono effettuare intere relazioni di fisica direttamente in Python usato mediante notebook Jupiter.
Oppure si possono creare i notebook direttamente nel cloud con Google Colab (consigliato, piu' comodo per iniziare). Qui un tutorial per iniziare.
Le zone a sfondo grigio sono concetti di livello avanzato, quindi guarda solo quelle a sfondo chiaro per una trattazione piu' semplice!
Ogni apparecchio di misura è un oggetto che possiede determinate caratteristiche, sarà dunque soggetto a limitazioni nella misura che possono essere suddivise in tre categorie principali:
Limitazioni Strumentali: dipendenti dallo specifico strumento utilizzato, le cui carattistiche principali sono:
Portata (range): campo di misura ammesso dallo strumento, dal valore minimo al valore massimo misurabile;
Risoluzione (resolution): il più piccolo incremento discreto di lettura (passo) che lo strumento può visualizzare, ad es. 1 mm su un righello.
Sensibilità (sensitivity): quanto “forte” è la risposta dello strumento a un cambiamento piccolissimo (infinitesimo) della grandezza misurata (possiamo vederla come la pendenza della curva di calibrazione di quello strumento).
Di solito nei libri di testo di liceo si parla di sensibilità come "la più piccola variazione che lo strumento può misurare", anche se in realtà il termine corretto, in quel contesto, sarebbe risoluzione.
Ciò viene fatto per semplificare: è più diretto dire “quanto piccolo riesco a misurare” senza entrare in distinzioni più tecniche. Inoltre, negli strumenti semplici che usiamo a scuola — come un righello o una bilancia digitale — la sensibilità e la risoluzione spesso coincidono nei numeri, quindi la semplificazione funziona, almeno nei primi approcci
Errori Casuali (tipo A): Questi errori sorgono da variazioni impreviste nella tecnica di misura o nell'ambiente sperimentale (ad esempio, la mano che trema, l'angolo con cui guardo il righello, variazioni nella temperatura). Poiché gli effetti casuali tendono ad annullarsi mediando (calcolando una media su) numerose misurazioni, si possono caratterizzare statisticamente per ottenere una stima della dispersione dei valori misurati.
Errori Sistematici (tipo B): Questi errori derivano da fattori costanti durante il processo di misurazione, come una calibrazione errata dello strumento. Se, ad esempio, una bilancia è tarata in modo errato, tutte le misurazioni di massa saranno sistematicamente distorte. Gli errori sistematici non vengono inclusi nell'incertezza, perché possono – in linea teorica – essere identificati e corretti, o altrimenti determinare uno spostamento costante dal valore vero.
Dunque per ciascuna misura effettuata riportiamo nella nostra relazione le relative incertezze. Sotto i casi possibili che possono capitare.
Per un approfondimento sulla teoria degli errori, rimando a questo link del dipartimento di fisica della Penn University.
Quando effettuiamo una singola misura di una grandezza fisica x, la risoluzione (resolution o least count) dello strumento definisce il più piccolo incremento discreto leggibile e determina l’incertezza assoluta della misura (componente di tipo B).
L'incertezza è una stima della dispersione dei valori misurati ed è distinta dall'errore, che rappresenta la differenza tra il valore misurato e il valore vero (spesso sconosciuto). Ad esempio, se un righello ha una sensibilità di 1 mm, l'incertezza assoluta della misura sarà di ±1 mm, e la indichiamo col simbolo greco Δ prima della misura x:
Supponiamo ora di misurare la lunghezza di un cellulare (120 mm) e, con lo stesso strumento, il lato di una stanza (5000 mm), ottenendo in entrambi i casi un'incertezza assoluta di 1 mm. È evidente che l’impatto di tale incertezza è molto diverso nei due casi: 1 mm su 120 mm rappresenta una frazione significativa della misura, mentre su 5000 mm risulta quasi trascurabile. Per valutare correttamente la precisione della misura, introduciamo l'incertezza relativa, definito come il rapporto tra l'incertezza assoluta e il valore della misura stessa. In questo modo, pur avendo lo stesso valore assoluto di incertezza, il cellulare presenta un'incertezza maggiore rispetto alla stanza, evidenziando come l'incertezza relativa fornisca un'indicazione più significativa della precisione in relazione alla dimensione della grandezza misurata.
In ambiti non specialistici, si usa il termine "errore relativo" in maniera intercambiabile con "incertezza relativa", anche perché per conoscere l'errore relativo bisognerebbe conoscere il valore vero della grandezza misurata, che nella pratica spesso non è disponibile.
Questo indice fornisce una misura adimensionale della precisione: un valore basso indica che le misurazioni ripetute si discostano poco l’una dall’altra, e quindi sono molto precise. Tuttavia, è importante distinguere precisione e accuratezza.
La precisione si riferisce alla coerenza dei risultati: misurazioni ripetute che si raggruppano strettamente attorno a un valore medio indicano alta precisione, indipendentemente dal fatto che tale valore medio sia vicino o meno al valore vero. L’accuratezza, invece, esprime quanto il valore medio di una serie di misurazioni si avvicini al valore accettato o vero della grandezza. Ad esempio, se misuriamo la lunghezza di un foglio di carta e otteniamo 11.1 in, 11.2 in e 10.9 in, le misurazioni sono precise (i valori sono vicini tra loro) e, essendo in media vicino a 11.0 in, sono anche accurate. In altri casi, misurazioni molto precise (i valori sono molto simili) possono essere però imprecise se il valore medio è distante dal valore vero, indicando un errore sistematico.
In sintesi, mentre l’incertezza relativa è un buon indicatore della precisione della misura, l’accuratezza si valuta confrontando il valore medio misurato con un valore di riferimento noto. Se il valore noto è identificato dal punto centrale dei cerchi sotto, abbiamo i seguenti casi:
Bassa precisione e accuratezza
Bassa precisione, alta accuratezza
Alta precisione, bassa accuratezza
Alta precisione, alta accuratezza
Se effettuiamo la misura di una grandezza x piu' volte, per ridurre gli errori casuali che possiamo commettere nell'atto della misurazione, il suo valore x sarà dato da:
dove il valore attendibile x̄ della misura è la media aritmetica delle N misurazioni:
mentre per l'incertezza assoluta della misura Δx consideriamo il valore piu' grande tra sensibilità e semi-dispersione massima dei valori, che si calcola come semi-differenza tra il valore massimo e il valore minimo tra quelli misurati:
Quando ripetiamo una misura N volte, ogni misura oscilla attorno al valore vero a causa di errori casuali. La media aritmetica x̄ delle misure fornisce una stima più affidabile della grandezza misurata, ma dobbiamo anche quantificare la dispersione dei dati (quanto i singoli valori si discostano dalla media). L'analisi statistica serve a quantificare quanto possiamo fidarci di questa media.
L’errore massimo (semi-dispersione massima) fornisce un’approssimazione rozza perché è molto sensibile a eventuali misure anomale.
Lo scarto quadratico medio (deviazione standard) è invece una misura più affidabile perché considera tutte le misure, pesando gli scostamenti quadratici dalla media:
Correzione di Bessel: Si usa (N-1), chiamato gradi di libertà, anziché N. Questo serve a correggere il bias (distorsione) che si crea quando usiamo un campione limitato di dati per stimare la vera deviazione standard dell'intera popolazione. Dividere per (N-1) fornisce la migliore stima imparziale della varianza della popolazione, specialmente critica quando N è piccolo.
questo è una misura più affidabile perché considera tutte le misure, pesando gli scostamenti quadratici dalla media.
Questa formula deriva direttamente dalla definizione di varianza nella statistica.
Lo scarto quadratico medio (o deviazione standard) è l'indice principale di come le singole misure si disperdono attorno al loro valore medio. In parole semplici, ci dice quanto "sparpagliati" sono i nostri dati.
Un σ piccolo indica che le misure sono molto vicine e raggruppate attorno alla media. Questo è sintomo di un'elevata precisione nelle misure.
Un σ grande indica che le misure sono molto sparse e lontane dalla media, rivelando una minore precisione.
Quindi, σ descrive la "larghezza" della distribuzione delle singole misure effettuate.
La distribuzione delle medie è Gaussiana. Possiamo dire con fiducia che l'intervallo x̄ +- σm contiene il valore vero con una probabilità del 68%.
L’errore associato alla media delle misure non è σ, ma è l’errore standard della media, dato da:
La formula ci mostra che all'aumentare del numero di misure N, l'errore sulla media diminuisce: più dati raccogliamo, più la nostra stima della media diventa affidabile.
Il Teorema del Limite Centrale è la ragione per cui la statistica funziona - in pratica afferma che:
"Non importa quale sia la distribuzione di probabilità delle singole misure (potrebbe anche non essere gaussiana), la distribuzione delle medie calcolate su campioni sufficientemente grandi tenderà sempre a seguire una distribuzione Normale (Gaussiana)."
Questo teorema ci permette di usare l'errore standard della media σm per costruire gli intervalli di confidenza (IC), ovvero quanto siamo confidenti di una determinata misura. Si ha che:
x̄ +- 1σm contiene il valore vero con una probabilità del 68.3%.
x̄ +- 2σm contiene il valore vero con una probabilità del 95.4%.
x̄ +- 3σm contiene il valore vero con una probabilità del 99.7%.
Tale teorema è valido però solo per N "abbastanza grande" (tipicamente per N>30).
❗ Dati limitati - attenzione al numero N di misure effettuate!
Le formule per la media (x̄) e la deviazione standard della media (σm) sono le stime più corrette per il valore attendibile e la sua incertezza, per qualsiasi numero di misure N. Tuttavia...
Con un numero limitato di misure (N < 30 tipicamente), l'interpretazione di questa incertezza cambia. Non possiamo più assumere una statistica Gaussiana (la "curva a campana" standard). Per costruire un intervallo di confidenza rigoroso, si dovrebbe utilizzare la distribuzione t di Student, che fornisce intervalli più ampi per tenere conto della scarsità dei dati.
In altre parole, con pochi punti a disposizione, è come cercare di indovinare la forma di un disegno vedendone solo pochi frammenti. La nostra piccola raccolta di misure potrebbe non aver catturato la reale variabilità del fenomeno. Di conseguenza, non possiamo applicare con sicurezza le potenti regole della statistica basate sulla curva "a campana", nota come distribuzione Gaussiana, ma dobbiamo usare una distribuzione detta t di Student dove l'intervallo di confidenza è +- t σm dove t è un fattore (preso da apposite tabelle) che dipende da N e dal livello di confidenza scelto. Per N piccolo, t è maggiore di 1, rendendo l'intervallo di confidenza più ampio per riflettere la nostra maggiore incertezza.
Quando una grandezza viene determinata a partire da misure dirette (ad esempio, calcolo la velocità media tramite spazio percorso e tempo impiegato a percorrerlo), esistono diverse strategie per stimare l'incertezza del risultato finale:
Misura Singola e Propagazione degli errori (approccio base): effettuiamo un solo set di misure delle grandezze che compongono la nostra grandezza derivata (ad esempio, un valore per Δs e uno o più per Δt), e per ottenerne la sua incertezza usiamo le regole di propagazione degli errori (paragrafo successivo).
Media semplice delle misurazioni ripetute (approccio statistico semplificato): ripetiamo più volte l’esperimento, per diversi set di grandezze che compongono la grandezza derivata (ad es. diversi Δs e Δt per calcolare la velocità) e calcoliamo per ciascuna coppia il valore della grandezza derivata (v1, v2, v3,…). Calcoliamo quindi il valore medio come media aritmetica dei risultati e stimiamo la sua incertezza direttamente dalla dispersione statistica dei valori della grandezza derivata (es. semi-dispersione massima o deviazione standard), ignorando le incertezze propagate su ciascun singolo valore.
Propagazione e Analisi Statistica combinate con Media Pesata (approccio rigoroso): ripetiamo più volte l’esperimento e per ogni prova calcoliamo sia il valore della grandezza derivata sia la sua incertezza tramite propagazione (v1±δv1, v2±δv2,…).
Si combinano quindi i risultati con una media pesata, dove le misure più precise (con δvi più piccolo) hanno un'influenza maggiore.
L'incertezza finale sarà più piccola della più piccola tra le incertezze individuali, perché combinare più dati aumenta la nostra fiducia nel risultato.
Il peso di ogni misura si calcola come inverso del quadrato dell'incertezza:
Questo rappresenta la sua affidabilità o la quantità di "informazione" che porta.
La grandezza fondamentale che misura la dispersione statistica è la varianza, che è il quadrato della deviazione standard (nel nostro caso, δvi). L'affidabilità di una misura è quindi inversamente proporzionale alla sua varianza.
Usare l'inverso del quadrato garantisce che le misure palesemente migliori dominino il risultato finale in modo molto più deciso, come è giusto che sia.
Il valore medio pesato si calcola come:
L'incertezza sulla media pesata:
Per approfondimenti, si suggerisce di consultare John R. Taylor, "An Introduction to Error Analysis: The Study of Uncertainties in Physical Measurements", al capitolo 7 "The Weighted Average".
Un altro testo di riferimento è quello di Bevington, P. R., "Data Reduction and Error Analysis".
Quando si calcola una grandezza derivata (come la densità a partire da massa e volume), si affronta un processo a più passaggi. Una delle regole fondamentali per non compromettere la qualità del risultato finale è: non arrotondare mai i valori dei calcoli intermedi.
Ogni volta che si arrotonda un numero, si "tagliano via" delle cifre, perdendo informazioni. Questo introduce una piccola imprecisione, chiamata errore di arrotondamento. Se questo viene fatto più volte durante una stessa procedura di calcolo, questi piccoli errori possono sommarsi e accumularsi, portando a un risultato finale sensibilmente diverso da quello corretto e meno preciso di quanto dovrebbe essere.
Regola: Arrotonda Solo alla Fine
Quando si fanno i conti a mano, è effettivamente scomodo tenere tutte le cifre decimali: per questo si tende a troncare o arrotondare subito, ma dobbiamo essere cosciente che così facendo accumuliamo un “errore di arrotondamento prematuro” che può diventare significativo nel risultato finale. Se usiamo Excel (o qualsiasi foglio di calcolo), lasciamo tutte le cifre che il programma ci dà e non arrotondiamo fino alla fine.
Applica la regola delle cifre significative solo all’incertezza finale
L’incertezza si arrotonda a 1 cifra significativa, ma se quella cifra è 1 o 2, mantieni due cifre (es. da 0,018 → 0,018; da 0,058 → 0,05).
L’idea di arrotondare l’incertezza a una sola cifra significativa (o al massimo due, se la prima è 1 o 2) nasce dal fatto che l’incertezza stessa è un’stima del possibile errore, e non un valore fisso “misurato con precisione”. Aggiungere cifre significative extra darebbe l’illusione di conoscere meglio l’errore stesso, mentre in realtà:
L’incertezza ha a sua volta un’“incertezza”: quando stimi la deviazione standard da un campione finito, il risultato può variare sensibilmente (fino anche del 10–20 %) se cambi leggermente i dati
Dare troppe cifre è privo di significato pratico: dire ±0,003724 g suggerisce che conosciamo l’errore fino al milionesimo di grammo, mentre la stima statistica di σ con poche decine di misure non è così affidabile.
Convenzione internazionale: le guide di laboratorio prescrivono di limitarsi a 1 cifra significativa per l’incertezza, riservando 2 solo se la prima cifra è “1” (per evitare un salto relativo troppo grosso)
In pratica: se calcoli un’incertezza di 0,003724, la arrotondi a ±0,003; se ottieni 0,058, diventa ±0,06; se invece è 0,015 (inizia con 1), puoi tenere ±0,015 o arrotondare a ±0,02, a seconda della regola concreta adottata. Questo garantisce che l’incertezza riportata rimanga essa stessa “incerta” nel modo giusto, senza far sembrare più precisa la tua stima di quanto non sia in realtà.
Una volta arrotondata l’incertezza (ad esempio a ±0,02), sai che la tua misura è attendibile solo fino ai centesimi. Di conseguenza devi esprimere anche il valore misurato con la stessa precisione:
Se il risultato “puro” del calcolo è 12,3451237, lo si arrotonda ai centesimi, cioè a 12,35, perché l’incertezza trovata è di ±0,02.
In questo modo valore e incertezza sono coerenti: 𝑥 = (12,35 ± 0,02)
Qui 0,02 indica la precisione dell’ultimo decimale (centesimo), e non avrebbe senso riportare il valore con più cifre di quelle con cui si conosce realmente l’errore.
Se una grandezza Z è ottenuta sommando o sottraendo due misure A e B:
L'errore assoluto è dato dalla somma degli errori assoluti delle singole misure:
In realtà, l'approssimazione di somma lineare degli errori è valida solo se gli errori sono sistematici o fortemente correlati.
A volte pero gli errori sono indipendenti e casuali: mentre uno è positivo, l’altro è negativo, quindi non sempre si sommano nello stesso verso. In statistica, quando due variabili indipendenti si sommano, le loro varianze si sommano:
Se gli errori sono indipendenti, le loro fluttuazioni possono compensarsi parzialmente, quindi l'errore totale è inferiore alla somma diretta.
Poiché l’errore assoluto è la deviazione standard, otteniamo la somma in quadratura degli errori:
Se una grandezza Z è ottenuta moltiplicando o dividendo due misure:
L'errore relativo è dato dalla somma degli errori relativi delle singole misure:
La formula si ottiene dalle derivate parziali della funzione Z, in particolare applicando la differenziazione logaritmica che permette di semplificare il calcolo della derivata:
Un caso particolare è la moltiplicazione di una grandezza per un numero fisso k:
L'uso delle derivate parziali nella propagazione degli errori ha un significato profondo: serve a stimare come una piccola variazione di una variabile di input influenza il risultato finale.
Immaginiamo che una grandezza 𝑍 dipenda da più variabili misurate 𝐴, 𝐵, 𝐶,…, ciascuna con il proprio errore 𝜎𝐴, 𝜎𝐵, 𝜎𝐶,…
Se 𝑍=𝑓(𝐴,𝐵,𝐶), il suo valore cambierà se 𝐴, 𝐵, 𝐶 subiscono piccole variazioni.
Per capire come 𝑍 varia, usiamo l'approssimazione lineare (Taylor all'ordine 1):
Questa espressione ci dice quanto cambia 𝑍 se ogni variabile cambia di un piccolo 𝑑𝐴, 𝑑𝐵, 𝑑𝐶.
Ora, se i piccoli cambiamenti 𝑑𝐴, 𝑑𝐵, 𝑑𝐶 sono dovuti agli errori sperimentali, possiamo riscrivere in termini di incertezze:
dove abbiamo sommato in quadratura perché assumiamo che gli errori siano indipendenti.
Se una grandezza Z è ottenuta elevando una misura A a una potenza n:
L'errore relativo si moltiplica per n:
Che si ottiene applicando la differenziazione logaritmica:
Per funzioni più complesse che combinano somme, prodotti e potenze, si applicano le regole precedenti a ogni operazione nel calcolo dell’incertezza. Data Z funzione di A,B,C, l’errore assoluto è:
Uno strumento per calcolare errori su formule complesse (link) è stato creato dal ricercatore dell'Università di Ohio, Subhash Bose.
Questa formula deriva dalla propagazione dell’incertezza usando le derivate parziali, in particolare dalla propagazione degli errori basata sull’espansione di Taylor:
Elevando al quadrato e sommando, otteniamo l’espressione per l’errore totale.
Questa tecnica è valida quando gli errori sono piccoli e indipendenti, perché la propagazione dell'errore assume un comportamento lineare attorno al valore misurato.
Se gli errori fossero grandi, i termini di ordine superiore nello sviluppo in serie di Taylor diventerebbero significativi, rendendo l'approssimazione meno accurata.
Se gli errori fossero correlati, allora dovremmo includere anche le covarianze tra le variabili, complicando la propagazione. Per esempio, se 𝐴 e 𝐵 non sono indipendenti, l'errore su 𝑍 dipende anche da come 𝐴 e 𝐵 variano insieme. In quel caso, la formula diventa:
dove 𝜌 è il coefficiente di correlazione tra 𝐴 e 𝐵.
Questa sezione ospita le relazioni di fisica redatte dai migliori studenti durante le lezioni. Si arricchirà nel tempo con nuovi contenuti.
Secondo Principio della Dinamica: tabella