De senaste årens forskning manar till en omvärdering av laborationernas roll i högre fysikutbildning. Traditionellt har de främst betraktats som tillfällen att konkretisera och stärka förståelsen av det teoretiska ämnesinnehåll som förmedlas på föreläsningarna. De kvantitativa empiriska studier som har gjorts för att testa detta, talar dock snarare för att laborationer har måttlig eller ingen inverkan på studenternas teoretiska förståelse — och dessutom att det upplägg, som dessa undervisningsinslag typiskt har, dessutom tenderar att inverka negativt på studenternas inställning till experimentell fysik. Som en konsekvens av dessa rön har synen på laborationernas funktion börjat skifta till att i första hand betrakta dem som tillfällen att öva praktiska färdigheter, utveckla en djupare förståelse av ämnets natur och tränas i kritiskt tänkande.

Med detta följer behovet av tillförlitliga sätt att mäta och jämföra effekten av olika laborativa upplägg i just dessa avseenden. I denna artikel presenteras ett validerat instrument för att mäta kritiskt tänkande i en experimentell kontext, av författarna definierat som ”förmågan att använda data och evidens för att fatta beslut om vad man ska tro på och hur man ska agera” (undertecknads översättning). Detta inkluderar bland annat att tolka, värdera och dra slutsatser av insamlad eller presenterad data, och att utvärdera modeller, metoder och påståenden — viktiga färdigheter inte enbart för fysiker, utan även inom naturvetenskapen och samhället som helhet.

Mätinstrumentet i fråga, som författarna döpt till PLIC (physics lab inventory of critical thinking), finns tillgängligt i två versioner: en som inkluderar fritextsvar, och en annan, mer kompakt variant som enbart innehåller en blandning av flervalsfrågor, flersvarsfrågor och skattningsfrågor (5-punkts Likert-skala). Den senare har förstås fördelen att den tillåter automatiserad poängsättning och resultatsammanställning. Frågorna i båda versionerna av enkäten är explicit kopplade till en påhittad experimentsituation, med två påhittade dataset och två olika laborativa tillvägagångssätt som studenterna får jämföra och utvärdera. Den specifika kontexten är fysiklabbet, och författarna rekommenderar att utformningen av frågeformuläret anpassas om man vill testa liknande instrument inom andra discipliner. Ett par exempel på frågor som ingår i formuläret: ”Hur väl anser du att den valda metoden testade modellen?”, ”Vilken av grupperna anser du gjorde det bästa jobbet med att testa modellen?”, och ”Vad anser du att labbgruppen borde göra härnäst?”.

Tillämpligheten och validiteten hos frågeformuläret har utvärderats på basis av intervjuer (med både studenter och 78 ämnesexperter) och data från 5584 studenter fördelade på 29 fysikinstitutioner i USA. I artikeln diskuteras utformningen, poängsättningen och valideringen av mätinstrumentet i detalj, och för den som vill veta ännu mer — eller kanske till och med använda verktyget i sin egen undervisning — finns ett öppet onlineverktyg där frågeformuläret är tillgängligt i sin helhet, och det dessutom finns möjlighet för kursansvariga att digitalt och automatiskt samla in och sammanställa svar från sina kursdeltagare, samt att jämföra de egna studenternas resultat med andra kurskohorter.         

Kommentar: Observera att det mätinstrument som introduceras här är utformat för att mäta en specifik och situationsbunden aspekt av kritiskt tänkande — det gör inte anspråk på att vara allomfattande. Och kanske är det helt rätt väg att gå, för en färdighet som kan innebära så mycket och som praktiseras i så vitt skilda sammanhang.       

Text: Emma Wikberg, Fysikum

Studien

Walsh, C., et al. (2019). Quantifying critical thinking: Development and validation of the physics lab inventory of critical thinking. Physical Review Physics Education Research, 15 (1), 010135.