Spis treści

advertisement
Spis treści
Fizyka wczoraj, dziś, jutro
Drodzy Czytelnicy!
R
edakcja „Fizyki w Szkole” serdecznie
wita w 2013 roku. Na początek życzymy Państwu wielu sukcesów zarówno
w życiu zawodowym, jak i prywatnym.
Ponieważ mamy karnawał, to obecny
numer „Fizyki w Szkole” rozpoczynamy w trochę lżejszym tonie. Pierwszym
artykułem
są
bowiem
anegdoty
o Einsteinie zebrane przez naszego wieloletniego, zasłużonego współpracownika,
Juliusza Domańskiego. Tym zaś Czytelnikom, którzy pragną cało i bezpiecznie
powrócić z sylwestrowych szaleństw,
polecamy artykuł o zjawiskach fizycznych
związanych z ruchem samochodu.
Rok 2013 jest rokiem ważnym dla
wszystkich miłośników historii fizyki.
Mija bowiem okrągłe sto lat od ogłoszenia
w 1913 roku pracy Nielsa Henrika Davida
Bohra, w której opublikował on swój
planetarny model atomu wodoru. Za
osiągnięcie to otrzymał w 1922 roku
Nagrodę Nobla. Był to pierwszy kwantowy model atomu. W późniejszych czasach, na podstawie rozwiązania równania
Schrödingera, sformułowano inne modele
atomów. W związku z tym w środowisku
dydaktyków fizyki rozpoczęła się
trwająca do dziś dyskusja, czy model
Bohra zasługuje na to, by uczyć się o nim
w szkole. Dyskusja ta oczywiście pozostaje do dziś nierozstrzygnięta. Zwolennicy
obu koncepcji dydaktycznych niejednokrotnie wypowiadali się we wspomnianej
kwestii na łamach naszego czasopisma.
Inną rocznicą wartą upamiętnienia jest
70. rocznica śmierci Nikoli Tesli. Jednego
z największych wynalazców XX wieku,
pioniera technicznych zastosowań prądu
przemiennego. Jego imieniem nazwana
jest jednostka indukcji magnetycznej.
Życzymy miłej lektury
Czasopisma
Pedagogiczne
NUMER 1 STYCZEŃ/LUTY 2013
324 (LVIII) indeks 35810X ISSN 0426-3383
Nakład 3000 egz. CENA zł 19,50
(w tym 5% VAT)
Zdjęcie na okładce: fot. Fotolia
4
6
6
Anegdoty o Einsteinie
z Juliusz Domański
Co w fizyce piszczy?
z Zbigniew Wiśniewski
Fizyczne podstawy procesów
związanych z ruchem samochodu z Andrzej Kuczkowski
27
O umiejętnościach, wiedzy
i kompetencjach w nauczaniu
fizyki z Grzegorz Karwasz
35
Media w edukacji. Telefon
komórkowy w pomiarach
uczniowskich, cz. I
z Kazimierz Mikulski
Felietony
14
Pytania o współczesną fizykę
– rozmowa z prof. Ryszardem
Kutnerem, cz. II z Paweł Pęczkowski
Astronomia dla każdego
19
Zagadkowe sąsiadki Drogi
Mlecznej z Ewa L. Łokas
Z naszych lekcji
24
Okres drgań wahadła
matematycznego dla
dużych amplitud z Marek Lipiński,
Aleksander Czarnecki,
Przemysław Kuta
41
Społeczne koszty kształcenia
z Jerzy Kuczyński
Olimpiady, konkursy,
zadania
44
Przekraczając fizyczne
możliwości
z Rafał Wołkiewicz
46
Zadania z astronomii dla
uczniów szkół ponadgimnazjalnych: Układ Słoneczny, cz. II
z Piotr Gronkowski, Marcin Wesołowski
49
Turniej zadaniowy Zostań
Mistrzem. Seria 100
z Bogusław Urwanowicz
Komitet redakcyjny Juliusz Domański, Krystyna Jabłońska-Ławniczak, Jerzy Kreiner,
Andrzej Majhofer (Przewodniczący Komitetu), Zygmunt Mazur, Andrzej Szymacha, Mirosław
Trociuk Redakcja Zbigniew Wiśniewski (redaktor prowadzący), Paweł Pęczkowski Adres
redakcji 01–194 Warszawa, ul. Młynarska 8/12, tel. 22 244 84 75, faks 22 244 84 76,
[email protected] Wydawca Dr Josef Raabe Spółka Wydawnicza Sp. z o.o.,
ul. Młynarska 8/12, 01–194 Warszawa, tel. 22 244 84 00, faks 22 244 84 20, e-mail: raabe@
raabe.com.pl, www.raabe.com.pl, NIP 526-13-49-514, REGON 011864960. Zarejestrowana
w Sądzie Rejonowym dla m. st. Warszawy w Warszawie XII Wydział Gospodarczy KRS,
KRS 0000118704. Wysokość Kapitału Zakładowego: 50.000 PLN Prezes Zarządu Michał
Włodarczyk Dyrektor wydawniczy i redaktor naczelny Józef Szewczyk, tel. 22 244 84 70,
[email protected] Dział obsługi klienta tel. 22 244 84 11, [email protected].
pl Dyrektor zarządzjący Anna Gryczewska, [email protected] Dział marketingu
tel. 22 244 84 50 Kolportaż Anna Niepiekło, tel. 22 244 84 78, faks 22 244 84 76,
[email protected] Reklama Andrzej Idziak, tel. 22 244 84 77, faks 22 244 84 76,
kom. 692 277 761, [email protected] Skład i łamanie Vega design Druk i oprawa
Pabianickie Zakłady Graficzne SA, 95–200 Pabianice, ul. P. Skargi 40/42
Redakcja nie zwraca nadesłanych materiałów, zastrzega sobie prawo formalnych zmian w treści artykułów i nie odpowiada za treść płatnych reklam.
Zapraszamy do odwiedzenia naszej strony w Internecie
www.edupress.pl
Fizyka w Szkole 1/2013
3
fizyka wczoraj, dziś, jutro
Anegdoty
o Einsteinie
Juliusz Domański
O
d dawna byłem przekonany, że
warto ubarwiać lekcje anegdotą, ciekawym faktem z życia uczonego, mówić nie tylko o sukcesach,
ale i popełnionych błędach. Niekiedy datę odkrycia porównać ze
znaczącą datą z historii Polski. Dla
przykładu:
l bitwa pod Wiedniem – 1683 rok;
l publikacja zasad dynamiki przez
Newtona – 1687 rok.
Można też posłużyć się dowcipem, choćby takim jak na rysunku
na s. 5. Prawdopodobnie energia
wewnętrzna bardziej im się skojarzy ze słowem ciepło.
Lekcje fizyki są dzięki temu
mniej „sztywne”, omawiane fakty
i prawa nie są bezosobowe, zaczynają budzić zainteresowanie.
W dalszej części przytaczam
garść anegdot związanych z osobą
Alberta Einsteina.
l Gdy Einstein odwiedził pewną
szkołę, nauczyciel przedstawił
mu najzdolniejszą uczennicę.
– Jakich sławnych ludzi znasz? –
spytał Einstein.
– Homera, Szekspira, Faradaya
i pana. Ale zapomniałam pana
nazwisko.
l Kiedy Einstein był studentem,
nie był zbyt lubiany przez profesorów. Pewnego razu jeden
z nich zwrócił się drwiąco do
niego:
– Jak pan sądzi, czy skutek może
wyprzedzać przyczynę?
– Może – odparł Einstein – na
przykład taczki popychane przez
człowieka.
l Albert Einstein był zaproszony
do Marii Skłodowskiej-Curie.
4
Fizyka w Szkole 1/2013
Gdy usiedli w salonie, zauważył,
że dwa krzesła obok niego są
puste – nikt na nich nie usiadł.
– Proszę usiąść koło mnie –
zwrócił się do Marii – czuję się
bowiem, jakbym był w Pruskiej
Akademii Nauk.
l Żona Einsteina zapytana, czy
rozumie teorię względności, odpowiedziała:
– Nie. Ale znam swojego męża
i wiem, że mogę mu ufać.
l Na innym przyjęciu w Ameryce,
na którym przebywał Einstein,
pani domu, chcąc się pochwalić
wiedzą z astronomii, wskazała
na obiekt na niebie, mówiąc:
– To jest Wenus, poznaję ją, bo
zawsze lśni jak piękna kobieta.
– Przykro mi – odpowiedział
Einstein – ale planeta, którą
pani pokazuje, to Jowisz.
– Ach, panie profesorze, pan
jest naprawdę niezwykły, z tak
olbrzymiej odległości potrafi
pan rozpoznać płeć planety!
l Trzej wielcy fizycy: Newton, Pascal i Einstein postanowili zaba-
wić się w chowanego. Z losowania wynikło, że szukającym ma
być Einstein. Zakrył oczy i liczy do stu… Pascal ukrył się za
chmurką, a Newton narysował
kwadrat o boku około 1 metra
i stanął w środku. Einstein doliczył do stu i odsłonił oczy.
– O, Niuton, mam cię!
– Wcale nie. Ja jestem Newton na
metr kwadratowy, czyli Pascal.
l Pewnego razu Einstein, odwiedzając fryzjera, spotkał małego chłopca. Chłopiec płakał.
Einstein zapytał go, dlaczego
płacze. Ten stwierdził, iż zgubił
pieniądze i nie może skorzystać
z usług fryzjera. Naukowiec postanowił dać chłopcu pieniądze,
aby ten mógł się ostrzyc. Chłopak popatrzył przez chwilę na
naukowca, a w szczególności na
jego długie, rozczochrane włosy
(które były właściwie wizytówką
Einsteina), i powiedział:
– Nie, dziękuję, niech pan zatrzyma pieniądze, panu są one
bardziej potrzebne niż mnie.
l Na jednym z ekskluzywnych
party z udziałem znanych osobistości Marilyn Monroe zadała
Einsteinowi pytanie:
– Jak pan sądzi, profesorze, czy
nie powinniśmy razem spłodzić
dziecka? Miałoby moją urodę,
a pański rozum.
– Obawiam się, droga pani, że
mogłoby być odwrotnie... – odpowiedział słynny uczony.
l Albert Einstein chętnie oglądał
filmy Chaplina i wielką sympatią obdarzał komiczną postać
mistrza ekranu. Kiedyś napisał
do Chaplina:
– Podziwiam pańską sztukę. Film
Gorączka złota jest zrozumiały
fizyka wczoraj, dziś, jutro
l
l
l
l
na całym świecie, a pan sam będzie sławnym człowiekiem.
Na to Chaplin odpisał uczonemu:
– Ja pana jeszcze bardziej podziwiam. Pańskiej teorii względności nikt na świecie nie rozumie,
niemniej jest pan sławnym człowiekiem.
Albert Einstein zaczął czytać
dopiero w wieku dziewięciu lat.
Zawsze miał też kłopoty z pisaniem, za to z myśleniem żadnych
problemów.
Einstein, podobnie jak wielu innych uczonych, pochłonięty pracami naukowymi nie przywiązywał wielkiej wagi do spraw życia
codziennego. Po co na przykład
czyścić buty, gdy ciągle pada
deszcz, lub nosić w tym czasie
kapelusz, kiedy schnie on o wiele wolniej niż włosy?
Osobisty kierowca Einsteina
podczas każdego z wystąpień
miał zwyczaj siadać z tyłu sali
i przysłuchiwać się wywodom
słynnego naukowca. Po kilku
takich sesjach stwierdził, że to
żadna sztuka i prawdopodobnie sam mógłby poprowadzić
wykłady. Einstein, znany z ekscentrycznego poczucia humoru, dał mu szansę. Na jednym
z wykładów zamienił się z kierowcą miejscami. Uczony usiadł
za plecami szofera przebrany
w jego uniform, natomiast kierowca poprowadził wykład.
I rzeczywiście wystąpienie było
nadzwyczaj udane. Na końcu
jeden ze słuchaczy zadał szczegółowe pytanie. Niezmieszany
szofer odpowiedział:
– Odpowiedź na to pytanie jest
całkiem prosta, założę się, że
mój siedzący z tyłu kierowca
mógłby na nie odpowiedzieć.
Na początku naukowej kariery
Alberta Einsteina pewien dziennikarz spytał panią Einstein, co
myśli o swoim mężu.
– Mój mąż to geniusz! On umie
robić absolutnie wszystko, z wyjątkiem pieniędzy.
Gdy jeszcze nie było wiadomo,
czy ogólna teoria względności
jest prawdziwa, Einstein mówił:
– Jeśli moja teoria okaże się
prawdziwa, to Niemcy uznają
mnie za Niemca, a Francuzi za
obywatela świata. Ale jeśli okaże się fałszywa, to dla Francuzów będę Niemcem, a dla Niemców Żydem.
l Einstein przyjechał w 1923 roku
do Kopenhagi na spotkanie
z Bohrem. Uczeni spotkali się na
stacji kolejowej i wsiedli do tramwaju, ale zatopieni w rozmowie
zapomnieli wysiąść na właściwym
przystanku. Wsiedli więc w tramwaj jadący w przeciwnym kierunku, ale znów pojechali za daleko.
Historia powtórzyła się jeszcze
kilkakrotnie, zanim wreszcie wysiedli na właściwym przystanku.
l Albert Einstein był namiętnym
palaczem. W młodości palił
przeważnie cygara, zresztą liche.
Potem zaczął palić fajkę i bardzo
się do niej przywiązał. Podobno
nie wypuścił jej z rąk nawet wtedy, gdy pewnego razu wywróciła się jego żaglówka i wpadł do
wody. Wśród licznych, także dziwacznych wyróżnień i honorów
Einsteina znalazło się dożywot-
nie członkostwo w Klubie Palaczy Fajek w Montrealu. Przyjmując to wyróżnienie, Einstein
miał powiedzieć, że palenie fajki
zapewnia spokojny i obiektywny
osąd spraw ludzkich.
l Zapytano pewnego razu Einsteina, w jaki sposób pojawiają
się odkrycia, które przeobrażają
świat. Wielki fizyk odpowiedział:
– Bardzo prosto. Wszyscy wiedzą, że czegoś zrobić nie można.
Ale przypadkowo znajduje się
jakiś nieuk, który tego nie wie.
I on właśnie robi odkrycie.
Fizyka w Szkole 1/2013
5
fizyka wczoraj, dziś, jutro
l
Pewnego dnia Einstein odwiedził Edisona, innego wielkiego
naukowca. Ten poskarżył mu
się, iż nie może znaleźć dla siebie odpowiedniego asystenta.
Odpowiedni asystent powinien
rozwiązać test przygotowany
przez Edisona. Einstein poprosił o test. Pierwsze pytanie
brzmiało:
– Ile jest mil z Nowego Jorku do
Chicago?
Einstein odpowiedział:
– Trzeba by było zajrzeć do rozkładu jazdy.
Kolejne pytanie brzmiało:
– Jaki jest skład stali nierdzewnej?
Einstein odpowiedział:
– To można znaleźć w podręczniku metalurgii.
W podobny sposób odpowiadał na inne pytania. W końcu
stwierdził:
– Nie potrzebuję czekać na
twoją odmowę, wycofam swoją
kandydaturę na asystenta dobrowolnie.
l Zapytano kiedyś Einsteina, z jakich zagadnień będzie egzaminował studentów. Profesor odpowiedział:
– Pytania będą takie same jak
w ubiegłym roku.
– Ależ panie profesorze, przecież to szalone ułatwienie!
– Nic podobnego. Pytania będą
wprawdzie takie same, ale odpowiedzi zupełnie inne.
l Spytano kiedyś Einsteina:
– Co myśli pan o ewentualnościach trzeciej wojny światowej
i jaka broń będzie dla tej wojny
charakterystyczna?
– Postęp w tej dziedzinie jest
tak zadziwiająco szybki, że nie
mógłbym uczciwie odpowiedzieć na to pytanie – rzekł uczony. – Natomiast z całą pewnością mogę stwierdzić, że czwarta
wojna światowa odbędzie się na
maczugi i kamienie.
Zdarzyło się, że Einstein nie
mógł znaleźć okularów. Odnalazła mu je dziewczynka.
– Dziękuję ci, moje dziecko, jak
się nazywasz?
– Klara Einstein, tatusiu.
l Spotkawszy przyjaciela, Einstein powiedział:
– Niech pan przyjdzie jutro do
nas na obiad. Będzie profesor
Smithson.
– Ależ profesorze, przecież Smithson to właśnie ja!
– Nic nie szkodzi, niech pan
przyjdzie.
l Dwaj amerykańscy studenci założyli się o to, czy list zaadresowany: „Profesor Einstein, Europa” dojdzie do adresata. List
doszedł w normalnym czasie,
a Einstein stwierdził po prostu:
– Poczta funkcjonuje u nas doskonale.
l
Juliusz Domański
Toruń
Co w fizyce piszczy?
Zbigniew Wiśniewski
Nowy typ kowadeł diamentowych
Stan materii generalnie zależy
od dwóch czynników. Od temperatury i ciśnienia. Aby dobrze poznać
właściwości materii, należy zbadać
ją w szerokim zakresie obu parametrów. Przy czym należy zaznaczyć,
że sposoby oddziaływania obu parametrów na materię są zupełnie
odmienne. Zmiana temperatury to
inaczej zwiększenie energii drgań.
Przyłożenie wysokich ciśnień to
zbliżenie do siebie atomów, czego
skutkiem jest zwiększenie ich oddziaływań wzajemnych. W przyrodzie największe ciśnienia panują
we wnętrzach supergęstych gwiazd
i planet. Z tego wynika, że ciśnienie jest niezwykle istotne z punktu
widzenia astro- i geofizyki.
6
Fizyka w Szkole 1/2013
Do otrzymywania wysokich ciśnień w warunkach laboratoryjnych
służą kowadła diamentowe. Są to
dwa monokryształy diamentu, wydrążone odpowiednio i uszczelnione za pomocą gasketu.
Jeśli będziemy wspomniane diamenty zbliżać do siebie, to pomiędzy nimi powstanie ciśnienie.
Maksymalne ciśnienie, jakie
można tą metodą uzyskać, to ok.
416 GPa. Powyżej tych ciśnień nawet diament pęka. Uczeni z Niemiec postanowili przyjrzeć się
dokładniej właśnie temu pękaniu.
Proces pękania zachodzi, tak jak
w przypadku wielu innych ciał stałych, wzdłuż specjalnych płaszczyzn
zwanych płaszczyznami poślizgu.
Niemcy wyciągnęli stąd wniosek,
że aby powstrzymać proces pękania, należy wyeliminować płaszczyzny poślizgu. Aby to zrobić, zastą-
pili więc monokryształy diamentu
zbiorem nanokryształów. W tak
zmodyfikowanej strukturze osiągnięto ciśnienie równe 640 GPa,
przy czym, zdaniem naukowców,
możliwe jest osiągnięcie ciśnienia
1 TPa, czyli ciśnienia panującego
we wnętrzu planet olbrzymów.
Po co latać na Księżyc? Po hel-3
Hel-3 jest nie tylko ciekawostką naukową ze względu na swoje
unikalne właściwości, takie jak
nadciekłość w niskich temperaturach. Jest też ważnym materiałem
używanym do produkcji czujników
neutronów. Jest to zagadnienie
niezwykle ważne z punktu widzenia kontroli transportu materiałów
rozszczepialnych, co z kolei jest
istotne z punktu widzenia zapobiegania ewentualnym atakom terrorystycznym. Jest on również uży-
fizyka wczoraj, dziś, jutro
wany w nowoczesnych systemach
chłodzenia. Dzięki niezwykłym
właściwościom helu-3 możliwe jest
osiągnięcie temperatur rzędu kilku
tysięcznych kelwina. Hel-3 znalazł
także zastosowanie w medycynie.
Tak liczne obszary zastosowań
helu-3 spowodowały galopadę cen
tego pierwiastka. W wyniku wspomnianego procesu cena litra helu-3
wzrosła ze 100 euro do 2000 euro.
Innym czynnikiem, który spowodował wzrost cen tego pierwiastka,
jest kurczenie się jego rezerw. Do
tej pory hel-3 był przekazywany
cywilom przez wojskowych, ponieważ izotop ten powstaje wskutek
rozpadu trytu, najważniejszego
składnika bomb wodorowych.
Wraz z nastaniem spokojniejszych czasów liczba bomb wodorowych zmalała, a w konsekwencji zmalała liczba otrzymywanego
tą drogą helu-3. Tymczasem zapotrzebowanie na niego wynosi 60 000 litrów rocznie. Jednym
z pomysłów rozwiązania głodu
helowego jest pozyskiwanie go ze
skał księżycowych, gdzie dostaje
się poprzez wiatr słoneczny. Proces odzyskiwania go ze skał księżycowych jest stosunkowo prosty.
Wystarczy taką skałę rozdrobnić
i podgrzać, a wtedy hel-3 sam się
z niej uwolni.
Wszystkie wymienione fakty
sprawiają, że nie można wykluczyć
w niedalekiej przyszłości przemysłowej kolonizacji Księżyca, której
celem byłoby przemysłowe pozyskiwanie helu-3.
Venus Express donosi
Venus Express nie jest, jak można by wnioskować po tytule, brukowcem o życiu supermodelek.
To nazwa jednej z udanych misji,
zrealizowanej przez Europejską
Agencję Kosmiczną (ESA). Wspomniana sonda została wstrzelona
z Ziemi w 2005 roku. Na orbitę
okołowenusjańską weszła w roku
2006. Pierwotnie planowano, że
okres aktywny sondy, czyli ten,
w którym jej instrumenty będą dostarczać wiarygodnych danych, po-
domu musiała się do nich dostosowywać. Zasadniczą częścią nowych
ogniw jest wspomniany grafen opakowany z góry i z dołu warstwą polimerową. Jak na razie wydajność
tych ogniw jest niska i nie przekracza 4,5 procent, ale już obecnie ich
niski koszt wytwarzania sprawia,
że mogą one być poważnym konkurentem ogniw krzemowych.
trwa mniej więcej pół roku. Okres
ten był jednak wielokrotnie przedłużany i sonda pracuje do dziś.
Do jej zadań należy m.in. przekazywanie danych o wenusjańskiej
atmosferze. I tu właśnie sonda
sprawdza się doskonale. Poza tym
za jej pośrednictwem uzyskano
pomiar stężenia dwutlenku siarki. Stężenie to okazało się większe od spodziewanego, a ponadto
zaobserwowano jego gwałtowny
skok o prawie czterysta razy. Jedną
z ważniejszych hipotez mogących
wyjaśnić obserwowaną wysoką
wartość wspomnianego gazu jest
to, że w momencie pomiaru miała
miejsce erupcja wenusjańskiego
wulkanu.
Świadczyłoby to, że Venus jest aktywna geologicznie tak jak Ziemia.
Fotoogniwa oparte na grafenie
Żyjemy w takich czasach, że jeśli
w czasopiśmie o fizyce zabrakłoby
informacji o nowych osiągnięciach
związanych z grafenem, to czytelnik mógłby czuć lekki niedosyt,
ponieważ grafen jest obecnie jednym z bardziej obiecujących materiałów. Tym razem chcielibyśmy
poinformować o nowych ogniwach
słonecznych zawierających grafen.
Ogniwa te są tańsze i lżejsze niż
ich krzemowe odpowiedniki. A co
ciekawe, są też giętkie, dzięki czemu będą mogły dostosowywać się
do powierzchni, na których będą
układane. Czyli odwrotnie niż tradycyjne panele krzemowe, w przypadku których konstrukcja np.
Dżdżownice produkują kropki
kwantowe
Jednym ze standardowych eksperymentów
przeprowadzanych
w doświadczeniach z pogranicza
nanotechnologii jest doświadczenie polegające na podawaniu organizmom wraz z pokarmem kropek
kwantowych i obserwowanie, gdzie
zachodzi ich grupowanie. Takie
eksperymenty są pomocne na przykład w diagnozowaniu nowotworów. Tymczasem brytyjscy specjaliści zaproponowali inne podejście.
Przeprowadzili eksperyment wykazujący, że organizmy żywe same
mogą produkować nanokropki.
Organizmami, którym naukowcy
powierzyli to odpowiedzialne zadanie, okazały się dżdżownice. Te
same, które pojawiają się w naszych ogródkach. W eksperymencie wykorzystano fakt, że dżdżownice mają zdolność magazynowania
w swoim organizmie toksyn. W tym
przypadku związkami toksycznymi
były tellurek sodu i chlorek kadmu.
Po jedenastu dniach takiej diety
pocięto biedne dżdżownice na kawałki i w ich wnętrznościach znaleziono stosowne nanokropki. Czyli
pełniły one funkcję reaktorów chemicznych.
Przy okazji nasuwa się jedna
uwaga. Jeśli student chemii bądź
fizyki dokona udanej syntezy nanocząstek, zazwyczaj otrzymuje stosowny stopień naukowy, przynajmniej magistra. Miejmy nadzieję,
że nie uczyniono tym razem wyjątku i wybitnie uzdolnione nanotechnologicznie dżdżownice również
otrzymały stosowny stopień, nawet
jeśli został on im przyznany pośmiertnie.
Fizyka w Szkole 1/2013
7
fizyka wczoraj, dziś, jutro
Fizyczne podstawy
procesów związanych
z ruchem samochodu
Andrzej Kuczkowski
Wstęp
Po odzyskaniu przez Polskę
niepodległości po pierwszej wojnie światowej społeczeństwo polskie dążyło (w przeciwieństwie do
obecnych czasów) do wprowadzenia polskich nazw licznych nowych
urządzeń pojawiających się w życiu
codziennym. Tak było też z nazwą
automobil, która określała w wielu językach pojazd samobieżny.
W wyniku przeprowadzonego po
pierwszej wojnie światowej plebiscytu zwyciężyła nazwa samochód,
chociaż w opinii wielu nazwa samojazd byłaby odpowiedniejsza.
Samochód jest skomplikowanym urządzeniem technicznym
składającym się z wielu złożonych
urządzeń. U podstaw ich działania
leżą podstawowe prawa fizyki, które określają ich możliwości i granice stosowalności. W pracy tej autor
skoncentrował się na najważniejszych procesach związanych z ruchem samochodu.
Układ napędowy
Samochód jest pojazdem samobieżnym, aby więc mógł się poruszać, musi mieć źródło energii.
Może nią być np. energia wiązań
chemicznych zawarta w paliwie,
która w wyniku spalania go w silniku cieplnym zamienia się na
energię mechaniczną, lub energia
elektryczna przechowywana w akumulatorach, która w silniku elektrycznym zamienia się na energię
mechaniczną. W dalszej części będą
omawiane tylko silniki cieplne, jako
8
Fizyka w Szkole 1/2013
że są one dotychczas najczęściej
stosowane w samochodach.
Ruch samochodu jest rezultatem przekazania momentu obrotowego od silnika do kół napędowych. W samochodach stosowany
jest napęd na oś przednią, tylną
lub też na obie osie. Układ napędowy samochodu składa się z silnika, sprzęgła, skrzyni biegów, wałów
napędowych, centralnego mechanizmu różnicowego, przedniego
i tylnego mechanizmu różnicowego oraz z kół napędowych (rys. 1).
Mechanizm różnicowy zapewnia
różną prędkość obrotową kół wewnętrznych i zewnętrznych, gdy
samochód porusza się na zakręcie.
W wyniku spalania paliwa silnik
samochodu rozwija moc Ns, którą
można obliczyć ze znanego z mechaniki wzoru:
Ns = Ms · ws,
gdzie:
Ns – moc silnika [W];
Ms – moment obrotowy silnika
[N·m];
ws – prędkość obrotowa silnika
[rad/s].
Ze względu na straty mocy
w skrzyni biegów i przekładniach
moc Nk występująca na kołach napędowych będzie o kilka lub kilkanaście procent niższa i może być
wyrażona wzorem podobnym do
poprzedniego:
Nk = Mk · wk,
gdzie:
Mk – moment obrotowy na kołach
napędowych [N · m];
wk – prędkość obrotowa kół jezdnych [rad/s].
Jeżeli sprawność układu napędowego oznaczymy literą h, to moc
występującą na kołach można wyrazić wzorem:
Nk = Ns · h.
W rezultacie przeniesienia
mocy Nk od silnika do kół jezdnych
wywiązuje się na nich siła napędowa FN określona wzorem:
Nk = FN · v,
gdzie:
v – prędkość samochodu.
Po prostych przekształceniach
z powyższych wzorów możemy
otrzymać wyrażenie na wartość siły
napędowej:
Ms · ws · h
.
v
FN =
Prędkość samochodu zależy od
prędkości kątowej kół napędowych
wk i ich promienia rk:
v = wk · rk.
Natomiast prędkość obrotowa
kół wk zależna jest od prędkości
obrotowej silnika ws i przełożenia
układu napędowego iUN:
iUN =
ws
ws
‚
→ wk =
wk
iUN
stąd po prostych przekształceniach
otrzymujemy:
FN =
Ms · iUN · h
.
rk
oraz
v=
ws · rk
.
iUN
Z tych dwóch ostatnich wzorów wynika, że zmniejszenie war-
fizyka wczoraj, dziś, jutro
tości przełożenia iUN prowadzi do
zmniejszenia wartości siły napędowej i zwiększenia prędkości jazdy.
W chwili ruszania samochodu siła
napędowa musi być odpowiednio
duża, aby rozpędzić samochód
i pokonać siły oporów, dlatego
wartość przełożenia iUN powinna
być duża. Jak zostanie pokazane
później, siła napędowa nie może
być jednak większa od siły przyczepności, gdyż wówczas koła obracałyby się z poślizgiem.
Silnik cieplny
Możliwości zamiany ciepła na
pracę w silnikach cieplnych określają zasady termodynamiki.
I zasada termodynamiki
mówi, że ciepło dostarczone do
układu Q równe jest przyrostowi
jego energii wewnętrznej ∆U i pracy wykonanej przez układ W:
Fot. 1. Aby samochód mógł się poruszać, musi mieć napęd. W tym przypadku składa się on z jednego konia żywego,
choć sprawny samochód marki Warszawa ma moc równą pięćdziesięciu koni mechanicznych
Q = ∆U + W.
U mo w a:
– Q > 0 ciepło dostarczone do
układu;
– W > 0 praca wykonana przez
układ.
II zasada termodynamiki
Ciepło może zostać w silniku
cieplnym zamienione częściowo na
pracę tylko wtedy, gdy przepływa
od ciała o temperaturze wyższej T1
do ciała o temperaturze niższej T2.
Silnik cieplny to urządzenie pracujące w sposób cykliczny, które
zamienia część ciepła pobranego
w ciągu jednego cyklu ze źródła
ciepła Q1 na pracę W. Pozostała
część ciepła Q2 odprowadzana jest
do chłodnicy. Schematycznie zostało to pokazane na rys. 2. Źródło
ciepła ma temperaturę T1, a chłodnica temperaturę T2.
Sprawność silnika cieplnego h
określa stosunek pracy uzyskanej
w ciągu jednego cyklu W do pobranego ze źródła ciepła Q1:
h=
W
Q – Q2 .
= 1
Q1
Q1
Sprawność silnika cieplnego nie
może być wyższa od sprawności
Rys. 1. Schemat układu napędowego samochodu
idealnego silnika cieplnego Carnota hc określonego wzorem:
hc =
T1 – T2 .
T1
Sprawność cieplnych silników
spalinowych wynosi 25÷45%.
Ciepło i praca
Praca mechaniczna może w przemianach termodynamicznych zamieniać się na ciepło i odwrotnie.
Przykładowo gaz rozprężając się
w cylindrze od objętości V1 do objętości V2, wykonuje pracę ∆W (rys. 3):
Rys. 2. Schematyczne przedstawienie istoty działania
silnika cieplnego
∆W = p · ∆V.
Gdy przemiana ta odbywa się
bez wymiany ciepła z otoczeniem
(adiabatycznie) i to gaz wykonuje
tę pracę, rozprężając się, to odbywa się ona zgodnie z I zasadą termodynamiki kosztem ubytku jego
energii wewnętrznej i dlatego gaz
się oziębia. Gdy natomiast gaz jest
adiabatycznie sprężany, to następuje jego ogrzewanie, co możemy
Rys. 3. Gaz rozprężając się w cylindrze od objętości V1
do objętości V2, wykonuje pracę ∆W = p · ∆V
stwierdzić, gdy np. szybko pompujemy dętkę w rowerze. W silnikach
wysokoprężnych sprężone powietrze nagrzewa się do tak wysokiej
temperatury, że następuje samo-
Fizyka w Szkole 1/2013
9
fizyka wczoraj, dziś, jutro
czynnik tarcia nazywamy współczynnikiem tarcia statycznego ms,
a w drugim – współczynnikiem
tarcia kinetycznego mk. Wartości
współczynników tarcia statycznego
i kinetycznego dla różnych stykających się powierzchni przedstawione są w tabeli 1.
Tabela 1. Wartości współczynników tarcia statycznego ms i kinetycznego mk dla różnych par stykających się powierzchni
Fot. 2. Zapalanie waty podczas sprężania adiabatycznego powietrza w pompce. Układ demonstracyjny
pokazywany na uniwersytecie w stanie Maryland.
Podobny układ można kupić również w firmie ZamKor
Fot. 3. Ciśnienie w oponie nie zależy od jej obciążenia.
Układ demonstracyjny pokazywany na uniwersytecie
w stanie Maryland
Rodzaj stykających się
par powierzchni
ms
mk
0,15
0,12
0,027
0,014
Guma po asfalcie
0,9
0,85
Guma po betonie
0,65
0,5
0,2
0,14
Stal po stali
Stal po lodzie
czynne zapalenie się wtryśniętego
paliwa.
Można się o tym przekonać,
korzystając z pokazanej na fot. 2
pompki, na której dnie jest skrawek
waty. Gwałtowne sprężenie zawartego w pompce powietrza powoduje zapalenie się strzępka waty znajdującego się wewnątrz cylindra.
Gdy sprężanie gazu w cylindrze
lub pompce zachodzi wolno, to
wydzielające się podczas sprężania
ciepło będzie odpływało do otoczenia i temperatura gazu będzie stała.
Będzie to sprężanie izotermiczne.
Subiektywnie wydawać by się
mogło, że ze wzrostem obciążenia
ciśnienie w oponie będzie wzrastać. Jednakże nie jest to prawda.
Możemy się o tym przekonać, korzystając z prawa Clapeyrona:
pV = nRT,
gdzie:
R – stała gazowa:
R = 8,314 J/(mol · K);
n – liczba moli.
Ponieważ objętość opony nie
zmienia się (może zmieniać się tylko
nieco jej kształt), podobnie jak temperatura gazu, więc ciśnienie w oponie nie zależy od jej obciążenia.
Można się też o tym przekonać
samemu, gdy na wentyl roweru założymy manometr. Jego wskazania
będą takie same zarówno wtedy,
gdy rower będzie nieobciążony, jak
i wtedy, gdy na nim usiądziemy.
10
Fizyka w Szkole 1/2013
Siła tarcia
Aby samochód mógł się poruszać, między nawierzchnią a oponami musi występować siła tarcia
zwana w mechanice ruchu pojazdu
siłą przyczepności. Siła ta jest siłą
napędową dla samochodu. Zależna jest ona od wartości współczynnika tarcia m (współczynnika
przyczepności) między oponą a nawierzchnią oraz od siły nacisku N.
Maksymalna wartość siły tarcia
Tmax, jak potwierdza doświadczenie, zależna jest od rodzaju stykających się powierzchni i siły nacisku. Zależność tę można wyrazić
wzorem:
0 ≤ T ≤ Tmax = m · N.
We wzorze tym m oznacza współczynnik tarcia poślizgowego, który
zależny jest od rodzaju i gładkości
stykających się nawierzchni, a N
oznacza silę nacisku. Siła nacisku
równa jest sile ciężkości, gdy ciało znajduje się na poziomej powierzchni, i składowej normalnej
siły ciężkości, gdy ciało znajduje
się na równi pochyłej.
Z doświadczenia wiemy też, że
najtrudniej jest ruszyć ciało z miejsca, a potem siła tarcia jest nieco
mniejsza. Gdy ruszamy z miejsca,
współczynnik tarcia jest większy
(nawet o kilkadziesiąt procent)
niż wtedy, gdy powierzchnie się
już przesuwają względem siebie.
W pierwszym przypadku współ-
Guma po lodzie
Gdy siła oporów ruchu będzie
większa od siły tarcia statycznego,
koła będą obracały się z poślizgiem.
W tym przypadku maksymalna siła
napędowa równa sile tarcia jeszcze
się zmniejszy, ponieważ podczas
poślizgu siła tarcia statycznego
zmniejszy się do wartości siły tarcia
kinetycznego. Gdy samochód wpada w poślizg, siła tarcia zmniejsza
się o około 6%, w związku z tym
zwiększa się droga hamowania
pojazdu. Podane w tabeli wartości
współczynników tarcia odnoszą
się do warunków optymalnych.
Gdy powierzchnia drogi pokryta jest warstwą wody, a zwłaszcza
lodu, wartość współczynnika tarcia
zmniejsza się drastycznie.
Siła tarcia tocznego
Dotychczas rozważaliśmy tzw.
tarcie poślizgowe. Podczas toczenia jednego ciała po powierzchni
drugiego występuje inny rodzaj
tarcia zwany tarciem tocznym.
Wartość tarcia tocznego, podobnie jak tarcia poślizgowego, jest
proporcjonalna do siły nacisku
N. Jest ona odwrotnie proporcjonalna do promienia toczącego się
ciała R. Siła ta rośnie ze wzrostem
odkształcenia podłoża i toczącego
fizyka wczoraj, dziś, jutro
się ciała. Odkształcenie to zależy
od rodzaju materiału i powierzchni toczącego się ciała oraz podłoża,
po którym to ciało się toczy. Można je opisać za pomocą współczynnika odkształcenia powierzchni e,
mającego wymiar długości. Jeżeli
wyrażenie e/R oznaczymy literą
f, zwaną współczynnikiem tarcia
tocznego, to siłę tarcia tocznego
Ft możemy wyrazić wzorem na siłę
tarcia posuwistego:
Ft =
Najkrótszy czas hamowania:
Rys. 4. Chcąc przesunąć ciało, trzeba przyłożyć do niego siłę F ≥ Tmax. Siła nacisku N = Q jest równoważona
przez siłę reakcji podłoża FR
e
· N = f · N.
R
Wzór ten można łatwo otrzymać z warunku toczenia się koła,
korzystając z rys. 4. Siła F musi być
większa od siły Ft lub równa tej sile,
a moment siły F względem punktu
A musi być równy momentowi siły
N lub od niego większy. Ramię siły
F jest równe w przybliżeniu R:
F ≥ Ft, F · R ≥ N · e,
skąd po przekształceniach otrzymujemy powyższy wzór na wartość
siły tarcia tocznego.
Tabela 2. Wartości współczynników oporu toczenia f opony samochodu osobowego po podanych
podłożach lub nawierzchniach (wg: L. Prochowski,
„Mechanika ruchu”, Wydawnictwa Komunikacji i Łączności)
Rodzaj nawierzchni lub Wartość współczynnika
podłoża
oporu toczenia
Gładki asfaltobeton
0,012
Gładki beton
0,014
Szorstki beton
0,015
Kostka kamienna w dobrym stanie
0,025
Droga polna
0,050–140
Suchy piasek
0,15–0,300
Śnieg
0,04–0,15
Liczymy minimalny czas zatrzymania samochodu jadącego
z prędkością 100 km/h = 27,8
m/s.
Ponieważ współczynnik tarcia
tocznego jest prawie czterdzieści
razy mniejszy od współczynnika
tarcia poślizgowego, więc gdy pominiemy siłę oporów toczenia oraz
Rys. 5. Aby koło o promieniu R się toczyło, trzeba przyłożyć do niego siłę zewnętrzną F większą od siły tarcia
tocznego Ft lub równą tej sile. Siła reakcji podłoża FR
równoważy siłę nacisku N
siłę oporów powietrza, możemy
oszacować minimalny czas zatrzymania samochodu, zakładając, że
jego ruch będzie ruchem jednostajnie opóźnionym.
Zakładamy: ms = 0,8; hamulce
działają na wszystkie cztery koła.
Maksymalna siła hamowania:
Fh = ms · N = 0,8 · m · g = m · a,
czyli opóźnienie a = 0,8 · g.
Liczymy minimalny czas,
po którym samochód osiągnie
prędkość 100 km/h.
a) Samochód ma napęd na cztery
koła.
Maksymalna siła napędowa jest
równa maksymalnej sile hamującej, dlatego czas rozpędzania
jest równy czasowi hamowania. Samochód z napędem na
cztery koła osiągnie prędkość
100 km/h po czasie nie krótszym
niż 3,55 s.
b) Samochód ma napęd na dwa
koła.
Maksymalna siła napędowa,
przy równym rozkładzie ciężaru
na obie osie, jest równa połowie
poprzedniej wartości, dlatego
też przyśpieszenie samochodu
będzie dwa razy mniejsze, a czas
przyśpieszenia dwa razy dłuższy. Czyli samochód z napędem
na dwa koła osiągnie prędkość
100 km/h po czasie nie krótszym
niż 7,1 s.
Zarzucanie
Aby dowolne ciało o masie m
poruszało się po okręgu o promieniu R, z prędkością v, musi na nie
Rys. 6. Na samochód Fiat 126p mający napęd na tylne koła działają następujące siły: Q – siła ciężkości, FN – siła
napędowa, FR1 i FR2 – siły reakcji podłoża działające odpowiednio na tylne i przednie koła, Fop – siła oporu ruchu,
Ft1 i Ft2 – siły oporu toczenia kół przednich i tylnych
Fizyka w Szkole 1/2013
11
fizyka wczoraj, dziś, jutro
Rys. 7. Gdy na ciało poruszające się po okręgu z prędkością v przestanie działać siła dośrodkowa Fd, zacznie
ono poruszać się po stycznej do okręgu z prędkością v
działać siła dośrodkowa Fd równa:
Fd =
m · v2.
R
Gdy siła ta przestanie działać,
ciało będzie poruszać się po stycznej
do toru z taką prędkością, jaką miało w momencie oderwania (rys. 7).
W przypadku samochodu poruszającego się na zakręcie siłą dośrodkową jest siła boczna. Gdy samochód porusza się po łuku ze stałą
prędkością, siła boczna jest równa
sile przyczepności (sile tarcia):
Rys. 8. Aby samochód poruszał się po łuku okręgu z prędkością v, musi na niego działać siła dośrodkowa. Równa
jest ona składowej normalnej siły przyczepności (sile bocznej)
a w przypadku zablokowania kół
spada nawet do zera!!!
Siłę przyczepności T działającą
między oponą a podłożem można
rozłożyć na siłę boczną Fb i napędową FN (rys. 9):
Fd = T
Fd =
m · v2
· m · g · m = T.
R
Z równania tego wynika, że
prędkość graniczna samochodu,
przy której nie wystąpi jeszcze jego
zarzucenie, wyraża się wzorem:
Wywracanie
Gdy samochód jest niewłaściwie
obciążony, to na zakręcie może
dojść do jego wywrócenia. Samo-
Rys. 9. Widok opony z lotu ptaka. Zacieniona powierzchnia środkowa przedstawia obszar styku opony
z nawierzchnią
.
Przykładowo, gdy np. samochód
porusza się po łuku o R = 50 m,
a m = 0,8, to prędkość graniczna
będzie równa:
Gdy samochód poruszający się
po łuku hamuje lub przyspiesza,
wartość siły bocznej zmniejsza się,
12
Fizyka w Szkole 1/2013
Rys. 10. Samochód na zakręcie może się wywrócić, gdy liczony względem krawędzi zewnętrznej opon moment siły
odśrodkowej będzie większy od momentu siły ciężkości
fizyka wczoraj, dziś, jutro
chód się wywróci, gdy moment siły
odśrodkowej liczony względem
krawędzi zewnętrznej opon będzie
większy od momentu siły ciężkości:
Fod = hs ≥ Q ·
b .
2
Wywrócenie samochodu jest
szczególnie niebezpiecznym wypadkiem. Dlatego konstruktorzy
dążą, aby prędkość maksymalna,
przy której wystąpi wywrócenie samochodu, była mniejsza od prędkości granicznej, przy której zachodzi zarzucanie. Można to osiągnąć,
obniżając położenie środka masy
samochodu hs i zwiększając szerokość samochodu b (rys. 10).
Zderzenia samochodów
W przypadku zderzenia centralnego dwóch ciał wektory prędkości obu ciał leżą na prostej łączącej
ich środki. Jeżeli podczas zderzenia możemy zaniedbać działanie
sił zewnętrznych (co ma miejsce
w przypadku zderzeń samochodów
w początkowej chwili), to spełnione będzie prawo zachowania pędu.
Pęd początkowy obu ciał będzie
równy pędowi końcowemu. Zderzenia nazywamy zderzeniami doskonale niesprężystymi, gdy po zderzeniu oba ciała poruszają się razem
jak ciało o masie równej (m1 + m2)
z prędkością v.
Rys. 12. Zderzenie centralne dwóch ciał. Ciało pierwsze
o prędkości v1 większej od prędkości ciała drugiego v2
dogania je. W chwili zderzenia oba ciała poruszają się
z prędkością v. W obu ciałach powstają siły sprężyste
zmniejszające prędkość pierwszego ciała do wartości u1
i zwiększające prędkość drugiego ciała do wartości u2
Jeżeli zderzenie jest doskonale
sprężyste, wtedy całkowita energia
kinetyczna ciał przed zderzeniem
jest równa całkowitej energii obu
ciał po zderzeniu.
Podczas zderzenia samochodów energia mechaniczna nie jest
zachowana. Część początkowej
energii obu samochodów zamieni
się na energię wewnętrzną (ciepło)
oraz zużyta zostanie na pracę odkształcenia samochodów. Przednią
i tylną część samochodu konstruuje
się w ten sposób, by przy zderzeniu
przejęły one w jak największym
stopniu początkową energię samochodu. Noszą one nazwę stref
zgniotu. Podczas rekonstrukcji
zderzenia dwóch samochodów
stosuje się modele komputerowe
wykorzystujące zasadę zachowania
pędu i momentu pędu oraz definicję współczynnika restytucji. Korzystając z tych modeli, można na
podstawie znajomości parametrów
ruchu po zderzeniu określić parametry ruchu samochodów przed
zderzeniem, co jest bardzo przydatne w analizie przyczyn wypadku
i rekonstrukcji przebiegu zderzenia. Współczynnik restytucji e definiuje się jako stosunek względnych prędkości ciał po zderzeniu
do względnej prędkości ciał przed
zderzeniem.
Współczynnik restytucji jest
wielkością bezwymiarową mogącą przyjmować wartości zawarte
w granicach od 0 do 1. Wartość 0
wystąpi wtedy, gdy zderzenie będzie doskonale niesprężyste, czyli
gdy ciała po zderzeniu będą złączone i będą poruszały się z tymi
samymi prędkościami. Wartość 1
wystąpiłaby, gdyby zderzenie było
zderzeniem doskonale sprężystym,
co w przypadku rzeczywistych zderzeń nie ma nigdy miejsca. Wartość
współczynnika restytucji zależna
jest od wartości prędkości względnej samochodów i maleje z jej
wzrostem od wartości 0,15÷0,35
dla małych prędkości do wartości
mniejszych od 0,1 dla prędkości
względnych v > 20 km/h.
W przypadku zderzenia niecentralnego ciał do wzoru na współczynnik restytucji trzeba wstawić
składowe prędkości normalne,
czyli prostopadłe do płaszczyzny
zderzenia.
Liczne testy zderzeń samochodów (crash test), które można zobaczyć w internecie, potwierdzają
prawdziwość napisów znajdujących
się na billboardach: 50 km/h = życie.
Andrzej Kuczkowski
Wydział Fizyki Technicznej i Matematyki Stosowanej,
Politechnika Gdańska
Rys. 11. Zderzenie centralne doskonale niesprężyste
dwóch kul
Wartość tej prędkości możemy
wyznaczyć z prawa zachowania
pędu:
skąd po przekształceniu otrzymujemy wzór na prędkość końcową
obu ciał:
Fot. 4. Faza końcowa testu zderzeniowego (materiał internetowy)
Fizyka w Szkole 1/2013
13
fizyka wczoraj, dziś, jutro
Pytania o współczesną fizykę
Ekono- i socjofizyka cz. II
Z prof. Ryszardem Kutnerem rozmawia Paweł Pęczkowski.
Panuje pogląd, że metody
i narzędzia teoretyczne stosowane w fizyce mogą być
zastosowane do badań w ekonomii. Czy Pana zdaniem
rzeczywiście tak jest, czy nie
jest to tylko moda i naginanie
metod fizycznych dla potrzeb
ekonomii? Jakie metody fizyczne znalazły zastosowanie
w ekonomii i do czego?
Od ponad dwóch dekad metody fizyki są stosowane do analizy
zjawisk i procesów ekonomicznych
a od ponad dekady tego typu aktywność ma charakter instytucjonalny i nosi nazwę ekonofizyki –
termin ten wszedł do oficjalnego
obiegu w połowie lat 90. dzięki
czasopismu „Physica A”. Otworzyło ono na swoich łamach dział pod
tą właśnie nazwą. Obecnie ekonofizyka znalazła już swoje miejsce
w powszechnie stosowanej klasyfikacji PACS (ang. Physics and
Astronomy Classification Scheme)
w sekcji: Interdisciplinary Physics.
Dzisiaj już wszystkie prestiżowe
czasopisma fizyczne publikują na
swoich łamach prace z ekonofizyki
– podobnie rzecz się ma z wieloma
czasopismami ekonomicznymi.
Zatem co to jest ekonofizyka?
Jest to wschodzący dział szeroko
rozumianej fizyki, wykorzystujący (czyli dostosowujący poprzez
reinterpretację, rozszerzenie lub
uogólnienie) metody, modele i teorie wypracowane przede wszystkim
w ramach fizyki statystycznej i fizyki materii skondensowanej do opisu
zjawisk i procesów ekonomicznych
Ryszard Kutner jest profesorem
fizyki, obecnie pracuje w Zakładzie
Fizyki Biomedycznej na Wydziale
Fizyki Uniwersytetu Warszawskiego. Jest pionierem w dziedzinie
zastosowania metod komputerowych w nauczaniu fizyki. Od dawna interesuje się zastosowaniem
metod fizycznych w ekonomii,
finansach i naukach społecznych.
Od 2004 roku współorganizuje
ogólnopolskie sympozjum na temat zastosowań fizyki w ekonomii
i naukach społecznych. Jest opiekunem specjalności Ekonofizyka
na Uniwersytecie Warszawskim,
w ramach której powstają prace doktorskie i magisterskie pod
jego kierunkiem. Profesor Kutner
jest autorem wielu artykułów publikowanych w renomowanych
czasopismach zagranicznych oraz
autorem podręczników i książek
popularnonaukowych z dziedziny
fizyki.
zarówno w mikro-, jak i makroskali, dotyczących w głównej mierze
rynków finansowych (stąd nazywa
się ją czasami fizyką finansową).
Na tej drodze, dzięki wykorzystaniu analogii do zjawisk fizycznych,
uzyskuje się pogłębioną analizę
zjawisk ekonomicznych, a także
socjologicznych, co otworzyło dziedzinę zwaną już dzisiaj socjofizyką
(jest o niej mowa w dalszej części
tekstu). Należy podkreślić, że ekonofizyka zajmuje się przede wszystkim mechanizmami stojącymi za
zjawiskami i procesami ekono-
micznymi, a zwłaszcza za różnego
rodzaju kryzysami i krachami.
Jakie były pierwsze prace,
które można by uważać za początek ekonofizyki, dotyczące
wykorzystania metod fizycznych do problemów ekonomicznych?
Początek ekonofizyki datowany
jest pracą fizyka Rosario Nunzio
Mantegny pt. Lévy walks and enhanced diffusion in Milan Stock
Exchange, opublikowaną w roku
1991 we wspomnianym czasopiśmie „Physica A”. Zauważył on, że
statystyka zmian indeksu mediolańskiej giełdy podlegała (w badanym okresie, z dobrym przybliżeniem) rozkładowi Lévy’ego, a nie
rozkładowi Gaussa, jak mogłoby
się wydawać na podstawie badań przeprowadzonych w epoce
przedelektronicznego obrotu papierami wartościowymi na gieł1
dach, czyli przed rokiem 1980 . Innymi słowy, nowożytne giełdy nie
dają się już opisać za pomocą tradycyjnego (niefraktalnego) ruchu
2
Browna . Odkrycie to spowodowało wielkie poruszenie nie tylko
wśród fizyków, co wywołało lawinę
prac trwającą do dziś.
Czy to odkrycie zainspirowało Pana do podjęcia prac nad
tym tematem? Co skłoniło
Pana do zajęcia się ekonofizyką?
Muszę przyznać, że również
moje pierwsze prace w dziedzinie
ekonofizyki były nim inspirowane.
1 Gwoli ścisłości, pierwszy na świecie całkowicie elektroniczny system obrotu papierami wartościowymi NASDAQ (ang. National Association of Securities Dealers Automated Quotations) uruchomiono już 8 lutego 1971 roku.
2 Na uderzające podobieństwo erratycznego zachowania paryskiego indeksu giełdowego do ruchów Browna wskazał jako
pierwszy Louis Bachelier w swojej rozprawie doktorskiej z roku 1900 zatytułowanej Théorie de la spéculation.
14
Fizyka w Szkole 1/2013
fizyka wczoraj, dziś, jutro
Odkrycie to miało przełomowy
charakter, gdyż udowodniło, że
całkiem realne jest występowanie
na rynkach zarówno kolosalnych
zysków, jak i ogromnych strat.
Innymi słowy, istotne są ogony
rozkładów, a nie ich korpusy –
oznacza to wkroczenie w nowy,
bez porównania bardziej skomplikowany świat o niewyobrażalnie
większym poziomie ryzyka. Dla
badacza jest to świat fascynujący,
natomiast dla zwykłego zjadacza
chleba przerażający.
Innym, bezpośrednim wpływem
fizyki było i jest wykorzystywanie
modeli magnetyków, w których
pojedynczy moment magnetyczny
symbolizuje decyzje pojedynczego
inwestora giełdowego (czy nawet
ogólniej, uczestnika życia społeczno-ekonomicznego) – orientacja
dodatnia oznacza decyzję bądź
opinię pozytywną, przeciwna – negatywną, a wartość momentu magnetycznego równa zeru oznacza
brak decyzji bądź opinii. Oczywiście aby coś więcej powiedzieć
o takim układzie, należy zdefiniować sieć powiązań pomiędzy
momentami magnetycznymi oraz
stopień otwartości układu (czyli
powiązanie układu z otoczeniem).
Prowadzi nas to bezpośrednio
do ewoluujących sieci złożonych
będących przecież istotnym elementem nauki o układach złożonych, tak prężnie rozwijającej się
w ostatniej dekadzie.
Jakie wyzwania obecnie stoją
przed ekonofizyką? Jak daleko rozwinęły się metody teoretyczne ekonofizyki?
Wyzwaniem dla ekonofizyki
(a także dla socjofizyki) jest rzucający się w oczy brak praw zachowania w zjawiskach i procesach ekonomicznych. Zarówno liczebność
populacji, liczba towarów i ilość
pieniędzy, jak też dostępnej informacji zmieniają się w czasie. Co
więcej, parametry wchodzące do
opisu są zależne od czasu (w sposób wolno- lub szybkozmienny).
Zatem równania dynamiki uży-
wane w ekonofizyce nie są całkowalne, stąd zasadnicza rola metod
numerycznych w ogólności, a symulacji komputerowych (o których już wspomniałem wcześniej)
w szczególności. Co więcej, ten
brak całkowalności otwiera drogę chaosowi deterministycznemu
i fizyce statystycznej. Tutaj przede
wszystkim teorie przemian fazowych i teoria katastrof mają dużo
do powiedzenia, zwłaszcza w kontekście wspomnianych już kryzysów i krachów.
Przy okazji warto wspomnieć
o wkładzie ekonofizyki do analizy
szeregów czasowych napływających
z różnorakich rynków, dzisiaj już
w milisekundowych odstępach czasu. Na czoło wysuwa się tutaj takie
narzędzie badawcze jak oscylacje
logarytmiczno-periodyczne, umożliwiające prognozowanie (przynajmniej z grubsza) występowania
krachów rynkowych, w tym giełdowych. Najczęściej struktura danych
ma charakter fraktalny lub multifraktalny, co doprowadziło do skonstruowania przez ekonofizyków
adekwatnych technik badawczych.
Należy pamiętać, że dane ekonomiczne obarczone są systematycznymi błędami pochodzącymi m.in.
spoza ekonomii, mimo że niektóre
spośród nich ekonofizycy nauczyli
się eliminować, korzystając np. z separacji skal czasowych, tak charakterystycznej dla fizyki.
Trzeba otwarcie powiedzieć, że
w ekonomii (podobnie jak w fizyce) nie istnieje uniwersalna teoria
wszystkiego – nie mamy równań,
które moglibyśmy traktować jako
fundament. Wciąż dalecy jesteśmy
od osiągnięcia tego celu, chociaż
poszukiwania cały czas trwają,
m.in. na drodze badania dynamiki
zleceń w podstawowym systemie
rządzącym każdą giełdą, jakim jest
giełdowa księga zleceń. W niewyobrażalnym gąszczu różnego typu
zleceń ekonofizycy wyłuskali już
wiele zależności i korelacji, jednak
wciąż relacja pomiędzy krótkoi długoterminową dynamiką zleceń
pozostaje wyzwaniem.
Podkreślmy, że nadzieja wiązana z ekonofizyką dotyczy zaskakującej elastyczności i otwartości fizyki – otwartości nie tylko formalnej,
lecz także interpretacyjnej – w tym
możliwości przekładania jednej
rzeczywistości (fizycznej) na drugą
(społeczno-ekonomiczną).
Gdzie oprócz ekonofizyki wykorzystuje się metody fizyczne? Wspomniał Pan o socjofizyce. Proszę zatem powiedzieć
coś więcej na ten temat. Czy
ludzi traktuje się tam jak
zbiór cząstek, które ze sobą
oddziałują? Co z tego wynika? A co z metodami fizyki
w biologii?
Jak już wspomniałem, równolegle z ekonofizyką rozwijana jest
socjofizyka, przede wszystkim
w oparciu o modele agentowe
(ang. agent-based models), w których przez agentów rozumie się
uczestników życia społeczno-ekonomicznego, a także w oparciu
o modele sieci złożonych oraz teorie gier. Zauważmy, że wspomniane wcześniej modele magnetyków
są właśnie typowymi przykładami
modeli agentowych. Burzliwy rozwój socjofizyki w obecnym stuleciu związany jest głównie z takimi
terminami jak: synergia [11], czyli
współdziałanie (kooperacja), złożoność [12] oraz emergentność, czyli nowa jakość [13].
Pojęcie synergii zostało wprowadzone przez Hermanna Hakena
do nauk matematyczno-przyrodniczych i społeczno-ekonomicznych
już w latach 70. ubiegłego wieku.
W fizyce znakomitym przykładem
synergii może być dynamiczna
przemiana fazowa prowadząca do
akcji laserowej. Dopiero wzbudzenie odpowiednio dużej liczby
atomów (powyżej pewnego charakterystycznego progu) prowadzi do ich synergii (kooperacji),
co skutkuje emisją koherentnej
wiązki laserowej. Możliwość przeniesienia pojęcia synergii z nauk
matematyczno-przyrodniczych na
grunt socjologii bazuje na trak-
Fizyka w Szkole 1/2013
15
fizyka wczoraj, dziś, jutro
towaniu pojedynczych atomów
gazu jak członków społeczności
wzajemnie oddziałujących i podlegających zewnętrznym wpływom
(polu informacji). Dopiero zajęcie przez określoną, progową (na
ogół stosunkowo niewielką, ale
wystarczającą) liczbę członków
tej wspólnoty jednakowego stanowiska w jakiejś sprawie prowadzi
do koherentnego działania całej
wspólnoty. W tym kontekście dobrą ilustracją może być także klucz
ptaków – wzajemna synchronizacja
położenia i prędkości ptaków w locie oraz skupienie się członków
klucza na liderze jest gwarancją
stabilności klucza i bezpieczeństwa
jego członków. Widać tutaj unifikujący charakter pojęcia synergii
niezależnie od tego, czy mamy do
czynienia z materią nieożywioną,
czy z istotami. Otwiera to możliwość wykorzystywania modeli
fizycznych w socjologii, a zwłaszcza możliwość przechodzenia od
modelowania na poziomie mikroskopowym, uwzględniającym indywidualny charakter obiektów, do
modelowania na poziomie makroskopowym (globalnym), traktującym układ całościowo.
Jakie są najważniejsze różnice w oddziaływaniach pomiędzy obiektami fizycznymi
a uczestnikami życia społeczno-ekonomicznego?
Trzeba powiedzieć, że oddziaływania pomiędzy uczestnikami życia
społeczno-ekonomicznego
mają
charakter złożony (a nie jak w fizyce elementarny). Już na pierwszy
rzut oka widać, że mogą być one
asymetryczne (niespełniające trzeciego prawa Newtona). Jeżeli dla
pierwszego uczestnika drugi jest
autorytetem, to odwrotnie tak nie
jest, czyli drugi ma silniejszy wpływ
na pierwszego.
Z tego punktu widzenia wykorzystywane modele fizyczne powinny być rozszerzone o możliwość
posługiwania się macierzami niesymetrycznymi. Ale taka możliwość
jest już w fizyce od dawna (mówi-
16
Fizyka w Szkole 1/2013
my wtedy np. o niehermitowskiej
mechanice kwantowej – przykładem może być rozpraszanie światła
w obecności pochłaniania).
Co więcej, oddziaływania pomiędzy elementami materii nieożywionej mają tzw. ślepy charakter,
podczas gdy w socjofizyce mają one
(przynajmniej do pewnego stopnia)
charakter inteligentny (racjonalny
i emocjonalny). Te oddziaływania
(powiązania) rozpatrywane w ramach socjofizyki mogą pojawiać się
i zanikać (w sposób systematyczny
bądź spontaniczny). Mówimy wtedy o samoorganizowaniu się sieci
powiązań. Ponadto każdy z uczestników jest wystawiony (na ogół
w różnym stopniu) na wpływ globalnych czynników zewnętrznych:
politycznych, ekonomicznych, kulturowych itp. Wielkości tego wpływu nie jesteśmy w stanie precyzyjnie ocenić.
Prowadzi to bezpośrednio, podobnie jak to ma miejsce w ekonofizyce, do stochastycznego opisu
ewolucji układów socjologicznych
(typu dynamiki stochastycznej oraz
do procesów stochastycznych).
Najczęściej nieliniowy charakter
tej ewolucji powoduje silne, samozgodne sprzężenie zwrotne (pozytywne lub negatywne) w układzie.
Ogólniej mówiąc, społeczności
badane w ramach socjofizyki mają
charakter otwarty, co oznacza, że
przestrzenie stanów tych społeczności mogą podlegać zmianom
(ciągłym bądź też skokowym).
Można powiedzieć, że bez synergii nie byłoby złożoności, a bez
złożoności emergentności, której
różnorodne przejawy są tak fascynującym obiektem badań. Emergentność może mieć charakter zarówno statyczny, jak i dynamiczny.
Przykładowo kawałek żelaznej blachy posiada własność sprężystości
w przeciwieństwie do atomów żelaza wziętych z osobna. Mamy tutaj do czynienia z emergentnością
statyczną. Typowym przykładem
emergentności dynamicznej mogą
być procesy nieodwracalne (m.in.
rozprężanie się gazu, o którym
była mowa wcześniej). Właśnie
tego typu procesy powszechnie
występują w życiu społeczno-ekonomicznym – niesłychanie trudno
jest podać tutaj realistyczny przykład procesu odwracalnego.
Na zakończenie wymieńmy jeszcze zasadnicze kierunki badawcze
socjofizyki. Są to:
l dynamika opinii;
l problematyka migracyjna, demograficzna wraz z aglomeracyjną;
l zagadnienia konfrontacyjne, modele rywalizacji (konkurencji);
l problemy ewakuacyjne;
l problematyka samoorganizacji,
w tym np. ruchu drogowego.
Dla porządku odnotujmy fakt
odgrywania jednej z głównych ról
w socjofizyce (podobnie jak w ekonofizyce) przez metody numeryczne, a w tym modelowanie numeryczne i symulacje komputerowe.
Jak wygląda rozpowszechnienie ekonofizyki i socjofizyki
w Polsce? Kto oprócz Pana
i Pana zespołu obecnie zajmuje się tymi problemami?
W Polsce istnieje prężne środowisko ekono- i socjofizyków, czego wyrazem może być utworzona
w roku 2004 Sekcja Polskiego Towarzystwa Fizycznego pod nazwą
Fizyka w Ekonomii i Naukach
Społecznych (FENS) [14]. Sekcja
ta współorganizuje średnio co półtora roku ogólnopolskie sympozja
FENS. Aktualnie przygotowywane
jest 7. sympozjum przez Uniwersytet Marii Curie-Skłodowskiej
w Lublinie. Namawiam do odwiedzenia strony zamieszczonej pod
wskazanym adresem internetowym
[14], aby zorientować się, jak szeroki jest wachlarz zainteresowań
naszego środowiska.
Być może Czytelników zainteresuje fakt, że na Wydziale Fizyki Uniwersytetu Warszawskiego
działa, od roku akademickiego
2006/2007, specjalność Metody fizyki w ekonomii (ekonofizyka) [15,
16]. W ramach tej specjalności stopień magistra uzyskało już ponad
fizyka wczoraj, dziś, jutro
dwudziestu absolwentów. Ponadto
z tematyki ekonofizycznej obroniono kilkanaście licencjatów oraz
trzy doktoraty.
A jak wygląda zastosowanie
metod fizyki w biologii?
Metody fizyki już od ponad
dwóch dekad są wykorzystywane
w biologii do opisu zachowania
się materii ożywionej na poziomie
komórkowym. Mam tutaj na myśli
opis za pomocą ruchu Browna erratycznego ruchu we krwi żywych,
ludzkich leukocytów (komórek
krwinek białych), a dokładniej
granulocytów [17]. Zauważono,
że granulocyty nie tylko poruszają
się zygzakowatym ruchem postę-
powym, ale także wykonują przypadkowe ruchy rotacyjne. Wprowadzając do równań dynamiki
stochastycznej Langevina (opisujących zmianę prędkości radialnej oraz rotacyjnej pojedynczego
granulocytu) siłę oporu lepkiego
ze współczynnikiem lepkości rosnącym ze wzrostem prędkości
radialnej, uzyskano bardzo dobrą
zgodność z danymi empirycznymi
(chodzi tutaj np. o zależną liniowo
od czasu wariancję oraz rozkład
3
prędkości radialnej Gaussa) .
Dokładniej rzecz biorąc, tego
typu podejście nosi nazwę ruchu
Browna cząsteczek aktywnych
w przeciwieństwie do dobrze nam
znanego ze szkolnej fizyki ruchu
Browna cząsteczek pasywnych,
np. kuleczek tłuszczu w rozcieńczonym mleku. Należy ono do
kategorii procesu stochastycznego
typu ruchu Browna cząsteczek zawiesiny o wewnętrznych stopniach
swobody. Dzięki temu możliwe
stało się uwzględnienie stopnia
ekscytacji agenta, a więc wzięcie
pod uwagę zróżnicowanych emocji
uczestników życia społeczno-ekonomicznego. Widać tutaj wspaniałą intelektualną woltę: od biologii
do socjofizyki. Dodajmy, że tego
typu proces należy do wspomnianej wcześniej kategorii modeli
agentowych.
3 Dynamika stochastyczna Langevina stanowi dynamiczną, a zarazem stochastyczną podstawę typu ab initio dla ruchu Browna.
LITERATURA
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
[15]
[16]
[17]
Kutner R., Mikrokomputery i co dalej?, „Fizyka w Szkole” 1986, nr 6, s. 333–341.
Gall M., Kutner R., Ginter J., Komputerem w kosmos, ZamKor, Kraków 2005.
Kutner R., Elementy mechaniki numerycznej, WSiP, Warszawa 1991.
Kadanoff L.P., Computational physics: pluses and minuses, Physics Today July 1986, 149–150.
Rewolucja informacyjna. 10 lat Internetu w Polsce – sympozjum, Uniwersytet Warszawski, Wydział Fizyki, 14 września 2001.
Helleman R., Self-generated chaotic behaviour in nonlinear mechanics, t. V, ed. E.G.D. Cohen, Elsevier North-Holland,
Amsterdam 1980.
Chaos deterministyczny [w:] Encyklopedia nauki i techniki, t. 1, Prószyński i S-ka, Warszawa 2002.
Kutner R., Dlaczego łatwiej o chaos niż o porządek, czyli czego nas uczy prawo wzrostu entropii, „Fizyka w Szkole” 1987, nr 3,
s. 153–159.
Galant A., Kutner R., Symulacja prawa wzrostu entropii [w:] Programy edukacyjne. Uzupełnienie podręcznika dla liceum ogólnokształcącego, liceum profilowanego i technikum. Kształcenie ogólne w zakresie podstawowym: Fizyka i astronomia 3 (Cambridge
Univ. Press, Cambridge 2000), tłum. Wydawnictwo Nowa Era, Warszawa 2003.
Wolfram S., A new kind of science, Wolfram Media Inc., Champaign 2002.
Weidlich W., Haag G., Concepts and models of a quantitative sociology. The dynamics of interacting populations, Springer-Verlag,
New York 1983.
Fronczak A., Fronczak P., Świat sieci złożonych. Od fizyki do Internetu, PWN, Warszawa 2009.
Spałek J., Emergentność w Prawach Przyrody i Hierarchiczna Struktura Nauki, „Postępy Fizyki” 2012, t. 63, z. 1, s. 8–18.
http://ptf.fuw.edu.pl/fens/
http://www.fuw.edu.pl/informator-II-20122013.html
Kutner R., Grech D., Report on Foundation and Organization of Econophysics Graduate Courses at Faculty of Physics of
University of Warsaw and Department of Physics and Astronomy of the Wrocław University, Acta Physica Polonica Vol. 114,
No. 3, 637–647.
Schweitzer F., Brownian agents and active particles, Springer-Verlag, Berlin 2003.
Literatura dodatkowa
[1] Lesyng B., Fizyka i komputery u progu XXI wieku, „Postępy Fizyki” 2000, t. 51, zeszyt dodatkowy, s. 12–17.
[2] Tobochnik J., Gould H., Machta J., Understanding temperature and chemical potential using computer simulations, American
Journal of Physics 73 (8), August 2005, 708–715.
[3] Lebowitz J.L., Piasecki J., Sinai Y., Scaling dynamics of a massive piston in an ideal gas [in:] Hard ball system and the Lorentz gas,
Encycl. Math. Sci. 101, 217–227, ed. D. Szász, Springer-Verlag, Berlin 2000.
[4] Hurkała J., Gall M., Kutner R., Maciejczyk M., Real-time numerical simulation of the Carnot cycle, European Journal of Physics
26 (2005) 673–680.
[5] Kutner R., Regulski M., Bose-Einstein condensation shown by Monte Carlo simulation, Computer Physics Communications,
121–122 (1999) 586–590.
[6] Gall M., Kutner R., Simple molecular mechanism of heat transfer: Debye relaxation versus power-law, Physica A 352 (2005)
347–378.
[7] Kutner R., Majerowski A., Meandry entropii – na ratunek klasycznej termodynamice. Entropia niejedno ma imię (2), „Fizyka
w Szkole” 2004, nr 1, s. 15–19.
Fizyka w Szkole 1/2013
17
Tylko u nas przeczytacie w 2013 r.
Podstawowe techniki astronomiczne
obserwacje optyczne, demonstracje i symulacje komputerowe.
Księżyc i planety
małe ciała o wielkim znaczeniu, rola w powstawaniu życia,
zjawiska przypływów i odpływów.
Eksperymenty w praktyce nauczania
w co wyposażyć pracownię szkolną, symulowane eksperymenty,
pomoce szkolne, projekty uczniowskie.
Telefon komórkowy w eksperymencie fizycznym
wykorzystanie telefonu jako elementu konstrukcyjnego m.in. do pomiaru czasu, zastosowanie
technologii satelitarnej w życiu codziennym, ćwiczenia interdyscyplinarne z geografii i fizyki.
WARUNKI PRENUMERATY NA 2013 ROK
I. PRENUMERATA ZA POŚREDNICTWEM WYDAWCY
Zamawiając roczną prenumeratę za pośrednictwem wydawcy, otrzymujecie Państwo rabat w wysokości 5% od ceny czasopisma.
Prenumeratę za pośrednictwem Wydawcy można zamówić:
n przez Internet, zakładka „Prenumerata” na stronie www.edupress.pl i w sklepie internetowym www.raabe.com.pl
n e-mailem: [email protected]; n telefonicznie, pod numerem (22) 244 84 78, (22) 244 84 07; n faksem, z dopiskiem „Prenumerata”, fax: (22) 244 84 10;
10;
n listownie, pod adresem: Dr Josef Raabe Spółka Wydawnicza Sp. z o.o. Wola Plaza, ul. Młynarska 8/12, 01-194 Warszawa
11 (6+5)
6 (3+3)
DWUMIESIĘCZNIKI
MIESIĘCZNIKI
Liczba wydań
w 2013 r.
(I i II półrocze)
Tytuł czasopisma
Cena 1 wyd.
Prenumerata
Prenumerata
w 2013 r.
roczna 2013 r. na I półrocze 2013 r.
(w tym 5% VAT) (w tym 5% VAT) (w tym 5% VAT)
Matematyka
16,50
181,50
99,00
Polonistyka
17,50
192,50
105,00
Wychowanie Fizyczne i Zdrowotne
19,50
214,50
117,00
Wychowanie w Przedszkolu z dodatkiem
„Poradnik Prawny Nauczyciela i Dyrektora
Przedszkola”
18,50
203,50
111,00
Życie Szkoły (dla nauczycieli klas 1–3)
18,50
203,50
111,00
Biologia w Szkole
19,50
117,00
58,50
Chemia w Szkole
19,50
117,00
58,50
Fizyka w Szkole
19,50
117,00
58,50
Geografia w Szkole
19,50
117,00
58,50
Wiadomości Historyczne
19,50
117,00
58,50
Język Niemiecki. Nauczaj lepiej!
22,50
135,00
67,50
Emocje – czasopismo wychowawców,
pedagogów i psychologów oraz
rodziców
16,50
99,00
49,50
II. PRENUMERATA DOSTARCZANA PRZEZ FIRMY KOLPORTERSKIE:
1. RUCH SA – przez Telefoniczne Biuro Obsługi Klienta – czynne w godzinach
700–1800 (koszt połączenia wg taryfy operatora):
– połączenie z telefonów stacjonarnych 801 800 803
i z telefonów komórkowych +48 (22) 717 59 59
O Zamówienia na prenumeratę krajową w wersji papierowej przyjmują
Zespoły Prenumeraty właściwe dla miejsca zamieszkania klienta:
www.prenumerata.ruch.com.pl, e-mail: [email protected]
O Prenumerata ze zleceniem wysyłki za granicę: +48 (22) 693 67 75,
www.ruch.pol.pl, e-mail: [email protected]
2. GARMOND PRESS – www.garmondpress.pl, tel. (22) 836 70 08, (22) 836 69 21
3. KOLPORTER S.A. – Prenumeratę instytucjonalną można zamawiać
w oddziałach firmy Kolporter S.A. na terenie całego kraju.
Informacje na stronie internetowej www.kolporter.com.pl
III. PRENUMERATA DOSTARCZANA PRZEZ POCZTĘ POLSKĄ:
4. Zamówienia we wszystkich urzędach pocztowych lub u listonoszy.
Zamówienia drogą elektroniczną – www.poczta-polska.pl/prenumerata.
Infolinia: działa w dni robocze w godzinach 8:00–20:00:
– dla korzystających z telefonów stacjonarnych – 801 333 444
(opłata jak za połączenie lokalne)
– dla korzystających z telefonów komórkowych i z zagranicy
– (+48) 43-842-06-00 (opłata wg cennika operatora) 801 333 444.
IV. PRENUMERATA ZAMAWIANA PRZEZ KIOSK24
– www.kiosk24.pl Katalog Edukacja, Oświata.
Zamów prenumeratę przez Internet edupress.pl kiosk24.pl raabe.com.pl
astronomia dla każdego
Zagadkowe sąsiadki
Drogi Mlecznej
Ewa L. Łokas
W
lipcu 2012 roku na łamach
amerykańskiego czasopisma
„The Astrophysical Journal” ukazała się seria trzech artykułów
poświęconych prędkości galaktyki
w Andromedzie, najbliższej dużej galaktyki w sąsiedztwie Drogi
Mlecznej. Grupa uczonych pod
kierunkiem Roelanda van der Marela ogłosiła wyniki badań przeprowadzonych za pomocą Kosmicznego Teleskopu Hubble’a. Wynika
z nich jednoznacznie, że w odległej
przyszłości, za mniej więcej 6 miliardów lat, Andromeda zderzy się
z Drogą Mleczną. W efekcie z tych
dwóch dość typowych galaktyk spiralnych powstanie wówczas jedna
duża galaktyka eliptyczna.
Od dawna było już wiadomo, że
obie galaktyki zbliżają się do siebie.
Informację tę zdobyliśmy dzięki pomiarom ich względnej prędkości radialnej, składowej wektora prędkości leżącej wzdłuż linii łączącej oba
obiekty. Tego rodzaju prędkości już
od kilkudziesięciu lat potrafimy wyznaczać z dużą dokładnością, analizując przesunięcie ku czerwieni lub
błękitowi światła gwiazd w galaktykach oddalających się od nas lub
zbliżających się do nas – zjawisko to
znane jest jako efekt Dopplera. Tego
rodzaju pomiary, zapoczątkowane
przez Edwina Hubble’a, pozwoliły
na odkrycie ucieczki galaktyk i ekspansji Wszechświata. W przeciwieństwie jednak do większości odległych
galaktyk Andromeda nie oddala się
od nas, lecz się do nas zbliża.
Prędkość radialna to tylko jedna ze składowych wektora prędkości. Pełniejszą informację na temat
Rys. 1. Kosmiczny Teleskop Hubble’a został umieszczony na orbicie okołoziemskiej w roku 1990. Po misji naprawczej w roku 1993 (i kilku kolejnych) osiągnął niespotykaną dotąd dokładność pomiarów astrometrycznych. Dzięki
prowadzeniu obserwacji w przestrzeni kosmicznej możemy uniknąć rozmycia obrazów gwiazd, które w nieunikniony sposób towarzyszy obserwacjom teleskopami naziemnymi ze względu na efekty atmosferyczne. Teleskop
Hubble’a mierzy względne położenia gwiazd z dokładnością do 0,5 milisekundy łuku, podczas gdy obserwacje
naziemne nie osiągają zwykle dokładności lepszej niż sekunda łuku. Więcej informacji na temat Kosmicznego Teleskopu Hubble’a można znaleźć na stronie: http://www.spacetelescope.org/
Źródło: ESA (http://www.spacetelescope.org/static/archives/images/screen/hubble_in_orbit1.jpg)
ruchu galaktyki możemy uzyskać,
znając składową tangencjalną prędkości, czyli prędkość w kierunku
prostopadłym do linii obserwacji. Wyznaczenie tej wielkości jest
znacznie trudniejsze i można to
zrobić w zasadzie tylko dla dość
bliskich obiektów. Aby tego dokonać, należy zmierzyć na sferze
niebieskiej przesunięcia gwiazd
należących do tych obiektów na tle
innych ciał, uznanych za nieruchome, np. odległych kwazarów. To
właśnie udało się wspomnianej grupie badaczy dzięki wykorzystaniu
niezwykle dużej dokładności, z jaką
Teleskop Hubble’a jest w stanie wyznaczać położenia gwiazd (rys. 1).
W celu otrzymania prędkości tangencjalnej zmierzyli oni różnice
położeń gwiazd na zdjęciach wykonanych w odstępie 5–7 lat.
Znajomość tej prędkości pozwala znacznie ograniczyć wachlarz
możliwych scenariuszy ewolucyjnych układu podwójnego Drogi
Mlecznej i Andromedy. Zderzenie tych galaktyk i ich ostateczne
połączenie wydaje się pewne, a do
pierwszego maksymalnego zbli-
Fizyka w Szkole 1/2013
19
astronomia dla każdego
żenia na odległość zaledwie 30 kiloparseków (z obecnej odległości
około 800 kiloparseków) dojdzie
już za mniej więcej 4 miliardy lat
(rys. 2). Galaktyka eliptyczna, która powstanie w wyniku tego zderzenia, będzie dużo rozleglejsza
od obecnych charakterystycznych
rozmiarów Drogi Mlecznej czy
Andromedy, a Słońce znajdzie się
prawdopodobnie znacznie dalej od
środka tego nowego układu gwiezdnego, może nawet w odległości
50 kiloparseków (to dużo w porównaniu z obecną odległością od
środka Drogi Mlecznej, wynoszącą
8 kiloparseków), jednak pozostanie z nim grawitacyjnie związane.
Zderzenie Słońca z inną gwiazdą
jest jednak bardzo mało prawdopodobne. Spotkanie z galaktyką
w Andromedzie jest najbliższym
w czasie, bardzo prawdopodobnym
zdarzeniem kosmicznym, które wywrze olbrzymi wpływ na otoczenie
Słońca i Układu Słonecznego.
Dzięki opisanym badaniom
poznaliśmy bardzo szczegółowo
scenariusz przyszłej ewolucji Drogi Mlecznej i jej najbliższej dużej
sąsiadki, Andromedy. Czy zatem
wszystko już wiemy o naszej Galaktyce i jej najbliższym otoczeniu?
Niestety, wydaje się, że od pełnej wiedzy na ten temat dzieli nas
jeszcze daleka droga. Dynamika
naszego kosmicznego środowiska
jest dużo bardziej skomplikowana,
zarówno w dużej skali kosmologicznej, jak i w mniejszych skalach. Najwięcej zagadek napotykamy właśnie
w mniejszych skalach galaktyk karłowatych, których – według przewidywań teoretycznych – w otoczeniu Drogi Mlecznej powinno być
znacznie więcej, niż obserwujemy.
Kłopoty sprawia również wyjaśnienie ich struktury wewnętrznej. Czy
zatem czeka nas zdecydowana modyfikacja istniejącej teorii, czy też
wystarczy tylko dokładniej opisać
znane już procesy?
Grupa Lokalna
Droga Mleczna i galaktyka w Andromedzie to dwa największe skład-
20
Fizyka w Szkole 1/2013
Rys. 2. Kolejne etapy zderzenia Drogi Mlecznej z Andromedą widziane z Ziemi (wizja artysty). Animacje przedstawiające zderzenie Drogi Mlecznej z Andromedą można obejrzeć na stronie: http://hubblesite.org/newscenter/
archive/releases/2012/20/video/
Źródło: NASA (http://hubblesite.org/newscenter/archive/releases/2012/20/image/b/)
niki tzw. Grupy Lokalnej Galaktyk
o rozmiarze około 2 megaparseków. Grupy galaktyk to obiekty plasujące się w hierarchii wielkoskalowej struktury Wszechświata między
galaktykami a dużymi gromadami
galaktyk. Powstały z połączenia co
najmniej kilku galaktyk, do którego
doszło na skutek niestabilności grawitacyjnej, leżącej u podstaw ewolucji rozkładu gęstości materii we
Wszechświecie, od niewielkich zaburzeń do gęstych obiektów, takich
jak galaktyki i ich gromady. Kiedyś
grupy i gromady galaktyk utworzą
jeszcze większe obiekty związane
grawitacyjnie, zwane supergromadami, a Grupa Lokalna, już w po-
staci zdominowanej przez ową jedną galaktykę eliptyczną, połączy się
z sąsiednimi gromadami galaktyk,
takimi jak Gromada w Pannie czy
w Warkoczu Bereniki.
Tak wygląda otoczenie Drogi
Mlecznej i Andromedy w szerszym kontekście kosmologicznym.
A co zobaczymy, gdy przyjrzymy
się Grupie Lokalnej z większą
„rozdzielczością”? Oprócz tych
dwóch obiektów o porównywalnej jasności, masie, a nawet podobnym kształcie w skład Grupy
Lokalnej wchodzi jeszcze kilkadziesiąt mniejszych galaktyk. Populacja tych galaktyk karłowatych
jest dużo bardziej zróżnicowana,
astronomia dla każdego
choć wszystkie mają jasności i masy
o kilka rzędów wielkości mniejsze od dwóch największych członków Grupy Lokalnej. Obiekty te
różnią się pod względem kształtu
(są wśród nich galaktyki dyskowe
i sferoidalne), zawartości gazu,
który jeszcze nie utworzył gwiazd,
samych populacji gwiazdowych,
a także własności kinematycznych
– niektóre rotują jak galaktyki
spiralne, w innych zaś dominuje
przypadkowy ruch gwiazd. Obiekty
sferoidalne zwykle nie tworzą już
nowych gwiazd i nie obracają się,
w przeciwieństwie do galaktyk dyskowych. Wszystkie galaktyki karłowate łączy duża zawartość ciemnej
materii, której masa przekracza
wielokrotnie masę gwiazd i gazu.
Ciekawe prawidłowości zaobserwowano też w przypadku rozkładu
przestrzennego galaktyk karłowatych poszczególnych typów. Okazuje się, że galaktyki dyskowe dominują na obrzeżach Grupy Lokalnej,
natomiast galaktyki sferoidalne
grupują się wokół Drogi Mlecznej
i Andromedy. Każda z tych dużych
galaktyk skupia wokół siebie kilkadziesiąt małych obiektów, które
krążą wokół niej niczym planety
wokół Słońca, choć po nieco bardziej skomplikowanych orbitach.
Zaobserwowany związek pomiędzy kształtem a odległością galaktyki karłowatej od dużej galaktyki
macierzystej naprowadził astronomów na trop scenariusza ewolucji,
który wyjaśnia związek pomiędzy
tymi dwoma typami obiektów.
Sądzimy, że ze względu na konieczność zachowania momentu
pędu akreowanego gazu, który
potem tworzy gwiazdy, wszystkie
galaktyki rodzą się jako dyski zanurzone w halo ciemnej materii.
Zgodnie z dominującym obecnie
poglądem we Wszechświecie dominuje ciemna materia, która najpierw tworzy strukturę w postaci
halo, a ta z kolei przyciąga gaz barionowy. Jeśli wszystkie galaktyki
były kiedyś rotującymi dyskami, to
w jaki sposób doszło do powstania
galaktyk sferoidalnych i eliptycz-
Rys. 3. Efekt oddziaływania galaktyki karłowatej z Drogą Mleczną uzyskany w wyniku symulacji N-ciałowej śledzącej ewolucję przez 10 miliardów lat. Z lewej: ramiona pływowe utworzone przez gwiazdy oderwane od galaktyki
karłowatej przez siły pływowe Drogi Mlecznej (rozmiar rysunku: 360 kiloparseków). Z prawej: powiększenie sferoidalnej galaktyki karłowatej powstałej w wyniku ewolucji pływowej z początkowej galaktyki dyskowej (rozmiar
rysunku: 20 kiloparseków)
Źródło: materiały własne autorki
nych? Prawdopodobnie galaktyki
tych typów są „wtórne” w tym sensie, że do ich powstania konieczne
są jeszcze jakieś inne mechanizmy
ewolucyjne, poza pierwotnym kolapsem grawitacyjnym i akrecją
gazu. Przykładem takiego mechanizmu są zderzenia galaktyk podobne do opisanego wyżej. W Grupie
Lokalnej galaktyki karłowate poruszają się jednak ze zbyt dużą prędkością, aby mogło między nimi dochodzić do częstych zderzeń, choć
przypadki takie mogły mieć miejsce
na wczesnych etapach ewolucji.
Scenariusz ewolucji pływowej
Inną możliwością są oddziaływania pływowe między galaktykami
karłowatymi a Drogą Mleczną lub
Andromedą. Okazuje się, że jeśli
tylko galaktyka karłowata znajdzie
się wystarczająco blisko środka
Drogi Mlecznej (w praktyce oznacza to około 50 kiloparseków), to
jako obiekt rozciągły zacznie bardzo silnie odczuwać siły pływowe,
których źródłem jest pole grawitacyjne dużej galaktyki. Mechanizm
tego oddziaływania jest taki sam
jak pływów powstających w układzie Ziemia-Księżyc i ma swoje źródło w różnicy przyciągania
grawitacyjnego dużej galaktyki po
obu stronach galaktyki karłowatej.
Różnica ta prowadzi do powstania
wypadkowej siły skierowanej na
zewnątrz galaktyki karłowatej, czyli dążącej do jej rozerwania.
Działanie sił pływowych prowadzi do powstania silnych zaburzeń
w rozkładzie gwiazd (i ciemnej materii) galaktyki karłowatej. Niektóre gwiazdy są całkowicie wyrywane
z karła i zaczynają samodzielnie
krążyć po orbitach wokół galaktyki macierzystej, tworząc efektowne
ramiona pływowe (rys. 3). Gwiazdy, które pozostają związane grawitacyjnie z galaktyką karłowatą,
zmieniają natomiast znacznie swój
rozkład i orbity – z początkowego
dysku formuje się wydłużone cygaro (poprzeczka), a potem obiekt
w przybliżeniu kulisty, natomiast
początkowo uporządkowane ruchy
gwiazd (rotacja) stają się przypadkowe. Końcowym produktem takiej
ewolucji, którą możemy dokładnie
prześledzić za pomocą symulacji
N-ciałowych, jest sferoidalna galaktyka karłowata przypominająca
do złudzenia obiekty obserwowane
w otoczeniu Drogi Mlecznej.
Brakujące satelity
Wydaje się więc, że dość dobrze
rozumiemy już mechanizm powstawania galaktyk karłowatych
w najbliższym otoczeniu Drogi
Fizyka w Szkole 1/2013
21
astronomia dla każdego
Mlecznej. Problem stanowi jednak ich liczba. Symulacje ewolucji
rozkładu materii we Wszechświecie, śledzące ten proces od bardzo
wczesnych etapów do tego momentu, przewidują, że w otoczeniu Drogi Mlecznej i Andromedy
powinno się znajdować kilkaset
obiektów o masach zbliżonych do
galaktyk karłowatych, a nie tylko
kilkadziesiąt, które obserwujemy.
Problem ten, sformułowany ponad dziesięć lat temu, jest znany
jako problem brakujących satelitów i zaczął spędzać sen z powiek
nie tylko astronomom zajmującym
się Grupą Lokalną, ale i kosmologom, którzy uznali, że stawia on
pod znakiem zapytania całą teorię
powstawania struktury, opartą na
zimnej ciemnej materii.
W ciągu ostatnich lat zaproponowano wiele różnych rozwiązań
tego problemu, włącznie z modyfikacjami własności postulowanej
ciemnej materii, tak aby efektywnie powstawało mniej satelitów.
Wydaje się jednak, że – jak to się
często zdarza w nauce – zanim
zaczniemy proponować rewolucyjne zmiany w naszych teoriach,
powinniśmy przyjrzeć się założeniom, które doprowadziły do tych
niepokojących wniosków. Otóż
w swej pierwotnej postaci problem brakujących satelitów został
sformułowany w oparciu o symulacje śledzące wyłącznie ewolucję
ciemnej materii, bez uwzględnienia roli barionów, gazu, procesów
gwiazdotwórczych itp. Prawdopodobnie właściwe włączenie opisu
tych procesów do symulacji znacznie zmodyfikuje przewidywania.
W szczególności wiemy już, że
obiekty o małej masie dużo mniej
efektywnie tworzą gwiazdy i łatwo
tracą gaz, mogą więc pozostawać
całkowicie ciemne. Uwzględnienie
wszystkich istotnych procesów barionowych z odpowiednią dokładnością jest jednak niezwykle trudne i jeszcze nie w pełni osiągalne.
W sukurs zmartwionym teoretykom przyszli jednak niedawno obserwatorzy, dzięki którym problem
22
Fizyka w Szkole 1/2013
Rys. 4. Ultrasłabe galaktyki karłowate powstałe w wyniku symulacji N-ciałowych galaktyk karłowatych o płaskich
rozkładach gęstości ciemnej materii na dwóch różnych orbitach. W obszarze 1 kiloparseka pokazanym na obu
rysunkach obiekty te zawierają tylko kilkaset gwiazd
Źródło: materiały własne autorki
brakujących satelitów przestał być
tak palący. Dzięki obserwacjom
prowadzonym w ramach przeglądu
Sloan Digital Sky Survey w otoczeniu Drogi Mlecznej w ciągu ostatnich kilku lat odkryto kilkanaście
nowych galaktyk karłowatych. Są
to obiekty niezwykle słabe, niektóre o jasności zaledwie tysiąc
razy większej od Słońca, a także
o nieregularnych kształtach. Co
ciekawe, znajdują się stosunkowo niedaleko, w odległościach
kilkudziesięciu kiloparseków od
Drogi Mlecznej, a więc typowych
dla wcześniej znanych karłów. Ze
względu na ich niezwykle małą jasność wyodrębniono osobną podklasę i nazwano je ultrasłabymi
galaktykami karłowatymi. Kolejne galaktyki karłowate (choć nie
są tak słabe, ponieważ są bardziej
oddalone) odkrywane są również
w otoczeniu Andromedy. O odkryciu ostatniej z nich, Andromedy
XXIX, doniesiono w październiku
ubiegłego roku.
Płaskie jądra
Kolejnym spektakularnym przewidywaniem teorii opartej na zimnej ciemnej materii jest rozkład
tej materii w halo galaktycznym.
Symulacje uwzględniające tylko
ciemną materię postulują mianowicie, że jej gęstość powinna ros-
nąć w kierunku środka galaktyki
do bardzo dużych wartości. Tymczasem modele dobrze odtwarzające dane obserwacyjne sugerują
raczej, że gęstość ciemnej materii
w pobliżu środka galaktyki powinna być stała. Wynik ten osiągnięto
poprzez dopasowywanie różnych
modeli rozkładu gęstości do pomiarów prędkości rotacji gwiazd
w wielu galaktykach, zwłaszcza
w obiektach o niskiej jasności powierzchniowej, które szczególnie
nadają się do takiej analizy, gdyż
wydają się całkowicie zdominowane przez ciemną materię. Chociaż
w celu wyjaśnienia tej sprzeczności również sięgano już po działa
dużego kalibru, czyli modyfikacje
własności samej ciemnej materii,
to wydaje się, że i w tym przypadku rozwiązanie zagadki tkwi raczej
w poprawnym modelowaniu ewolucji gazu i gwiazd w galaktykach.
W 2010 roku grupie teoretyków
pod kierunkiem Fabia Governata
udało się przeprowadzić symulacje
powstawania galaktyki karłowatej w kontekście kosmologicznym,
z uwzględnieniem wielu procesów
barionowych, które wcześniej zaniedbywano. Wyniki okazały się
przełomowe dla problemu rozkładu gęstości ciemnej materii.
Stwierdzono, że procesy tworzenia
i ewolucji gwiazd, w tym wybuchy
astronomia dla każdego
supernowych, mogą znacząco modyfikować rozkład ciemnej materii wewnątrz galaktyk. Otrzymany
w tych symulacjach obiekt pod
wieloma względami bardzo przypominał dyskową galaktykę karłowatą, jakich wiele obserwujemy
w pobliżu Grupy Lokalnej, lecz co
najważniejsze – charakteryzował
się płaskim rozkładem gęstości
ciemnej materii w pobliżu środka,
tak jak to wynika z obserwacji.
Dwie pieczenie przy jednym ogniu
Ostatnio, zainspirowani tymi
wynikami, wraz ze współpracownikami przeprowadziliśmy symulacje
ewolucji pływowej galaktyk karłowatych o płaskim rozkładzie ciemnej materii w jądrze, krążących
po różnych orbitach wokół Drogi
Mlecznej. Galaktyki o takich własnościach są dużo słabiej związane
grawitacyjnie, a więc dużo łatwiej
są rozrywane przez siły pływowe.
Wskutek tego znacznie szybciej
przebiega w ich przypadku ewolucja morfologiczna i dynamiczna,
od obiektu dyskowego do sferoidalnego, a także utrata masy. Niektóre galaktyki karłowate na odpowiednio ciasnych orbitach ulegają
nawet całkowitemu unicestwieniu
– przekształcają się w jednorodne
strumienie gwiazd krążących po
orbitach wokół Drogi Mlecznej.
Ma to oczywiście znaczenie dla
ostatecznego rozwiązania problemu brakujących satelitów: karły
o płaskich jądrach i odpowiednio
ciasnych orbitach uległy po prostu
całkowitej destrukcji i dlatego dzisiaj ich już nie obserwujemy.
Niespodziewanym, choć równie
ciekawym wynikiem tych symulacji było odtworzenie własności
odkrytych niedawno ultrasłabych
satelitów Drogi Mlecznej (rys.
4). Dla niektórych początkowych
konfiguracji (orbity i struktury
galaktyki karłowatej) ewolucja
przebiega w ten sposób, że chociaż
karzeł traci znakomitą większość
gwiazd i ciemnej materii, które
początkowo zawierał, to pozostaje
obiektem związanym grawitacyjnie
Dwie galaktyki połaczone strumieniem gazu
Źródło: NASA
przez kilka miliardów lat. W końcowych etapach ewolucji osiąga
niezwykle małą jasność, masę
i rozmiar, o wartościach bardzo
bliskich parametrom charakterystycznym dla ultrasłabych galaktyk
sferoidalnych.
Te wstępne wyniki pozwalają
przypuszczać, że uwzględnienie
procesów barionowych w symulacjach powstawania i ewolucji galaktyk może okazać się panaceum
na oba problemy: brakujących satelitów i rozkładu gęstości. Udało
się wykazać, że procesy te są w stanie modyfikować rozkład ciemnej
materii tak, aby zgadzał się z obserwacjami. Ów zmodyfikowany
rozkład ma z kolei istotne znaczenie dla dalszej ewolucji galaktyk
karłowatych w otoczeniu Drogi
Mlecznej i może prowadzić do ich
całkowitego rozerwania. Obecnie
nie jest możliwe przeprowadzenie
symulacji całej populacji galaktyk
karłowatych w Grupie Lokalnej
z rozdzielczością konieczną do śledzenia ich struktury wewnętrznej.
Uczeni cały czas jednak doskonalą metody numeryczne, rośnie też
nasza wiedza na temat procesów
gwiazdotwórczych, wkrótce więc
możemy się spodziewać ostatecznego rozwiązania problemów powstawania struktury w skalach galaktyk.
prof. dr hab. Ewa L. Łokas
Polska Akademia Nauk, Centrum Astronomiczne
im. Mikołaja Kopernika, Warszawa
Fizyka w Szkole 1/2013
23
z naszych lekcji
Okres drgań wahadła
matematycznego
dla dużych amplitud
Marek Lipiński, Aleksander Czarnecki,
Przemysław Kuta
W
ahadło
matematyczne
to
obowiązkowy temat zarówno
w podstawowym, jak i rozszerzonym kursie fizyki.
Na lekcjach fizyki analizowane
są tylko tzw. małe drgania, czyli takie, których amplituda jest mniejsza od umownych 5°. Dla takich
drgań wprowadzamy pojęcie izochronizmu, historycznie przypisywane Galileuszowi, odkryte podczas jego obserwacji okresu drgań
o malejącej amplitudzie dużego
świecznika zawieszonego u sufitu.
Co się dzieje z okresem drgań
wahadła, gdy amplituda będzie
dużo większa od 5°?
Takie pytanie postawili sobie
Aleksander Czarnecki i Przemysław Kuta, uczniowie działający
w projekcie FENIKS, który był
realizowany przez konsorcjum
Uniwersytetu Jagiellońskiego (lider programu), Uniwersytetu Humanistyczno-Przyrodniczego Jana
Kochanowskiego w Kielcach i Uniwersytetu Rzeszowskiego. Projekt
był ukierunkowany na rozbudzenie
zainteresowania naukami ścisłymi,
wzmocnienie kompetencji naukowo-technicznych, matematycznych
i informatycznych, uzupełnienie
i ugruntowanie wiedzy z fizyki.
W ramach konkursu projektów
uczniowskich doświadczeń został
zbudowany układ doświadczalny
i wykonano pomiary dla amplitud
dochodzących do 90°.
Aby przekonać się, że dla
uczniów szkoły ponadgimnazjal-
24
Fizyka w Szkole 1/2013
nej problem nie jest banalny, wystarczy spróbować rozwiązać go
analitycznie na podstawie równań
ruchu.
Dla masy punktowej zawieszonej na długiej, nieważkiej i nierozciągliwej nici o długości l ruch odbywa się pod działaniem zmiennej
w czasie wypadkowej siły ciężkości
i reakcji nici. Wypadkowa działa
stycznie do toru, którym jest łuk
okręgu.
Drugą zasadę dynamiki przedstawia równanie:
mas = –mg sinΘ.
Podstawiając:
,
otrzymujemy nieliniowe jednorodne równanie różniczkowe II rzędu
ze względu na funkcję Θ(t):
.
Dla małych kątów Θ można zastosować przybliżenie sin Θ ≈ Θ.
Wówczas równanie staje się
równaniem różniczkowym liniowym, a jego rozwiązaniem są drgania harmoniczne o znanym z lekcji
fizyki okresie:
Wzór na okres wygląda następująco:
,
gdzie:
.
Zależność d(Θ) uwzględniająca
11 pierwszych wyrazów szeregu
(n = 10) przedstawiona jest na wykresie d(Θ).
Czy mimo nieznajomości różniczek i całek możliwe jest rozwiązanie problemu wahadła przez
ucznia szkoły ponadgimnazjalnej?
W dobie coraz powszechniejszej
informatyzacji zagadnienie ruchu
wahadła można rozwiązać numerycznie, stosując arkusz kalkulacyjny (np. Excel) i podstawową metodę rekurencyjną Eulera.
Przyjmując odpowiednio mały
krok ∆t, np. 0,001 s, można uznać,
że przyspieszenie kątowe e ≈ const.
Wykonując cyklicznie obliczenia
od zadanego wychylenia początkowego Θo według poniższego algorytmu:
.
Dla dowolnego kąta Θ rozwiązanie analityczne wymaga znajomości elementów rachunku różniczkowego w bardzo zaawansowanej
postaci. Należy obliczyć tzw. całkę
eliptyczną zupełną I rodzaju, którą
można podać jako sumę nieskończonego szeregu.
wyliczane są wychylenia Θn w kolejnych chwilach czasu.
Przykładowe wyniki obliczeń dla
kąta Θo = 34° przedstawia tabela 1.
Analizując tabelę, można wyznaczyć moment (obszar w tabel-
z naszych lekcji
Tabela 1.
dt = 0,0005 [s]
l = 0,52 [m]
g = 9,806 [m/s2]
Θo = 34 [°]
t [s]
Θ [°]
Θ [rad]
w [1/s]
e [1/s2]
0,0000
34,000
0,593
0,000
–10,545
0,0005
34,000
0,593
–0,005
–10,545
0,0010
34,000
0,593
–0,011
–10,545
0,0015
33,999
0,593
–0,016
–10,545
0,0020
33,998
0,593
–0,021
–10,545
0,0025
33,998
0,593
–0,026
–10,544
0,0030
33,997
0,593
–0,032
–10,544
0,0035
33,996
0,593
–0,037
–10,544
0,0040
33,995
0,593
–0,042
–10,544
0,0045
33,993
0,593
–0,047
–10,543
0,0050
33,992
0,593
–0,053
–10,543
0,0055
33,990
0,593
–0,058
–10,542
0,0060
33,988
0,593
–0,063
–10,542
.........
.........
.........
.........
.........
0,3680
0,232
0,004
–2,539
–0,077
0,3685
0,160
0,003
–2,539
–0,053
0,3690
0,087
0,002
–2,539
–0,029
0,3695
0,014
0,000
–2,539
–0,005
0,3700
–0,058
–0,001
–2,539
0,019
0,3705
–0,131
–0,002
–2,539
0,043
0,3710
–0,204
–0,004
–2,539
0,067
0,3715
–0,277
–0,005
–2,539
0,091
0,3720
–0,349
–0,006
–2,539
0,115
ce zaznaczony szarym kolorem),
w którym wahadło przejdzie przez
położenie równowagi (Θn = 0).
Odpowiada mu czas tn = T/4.
Aby zwiększyć dokładność wyznaczenia T, procedurę można powtórzyć dla mniejszych wartości ∆t.
Wydaje się, że wystarczające jest
∆t = 0,0001 s.
Zestawiając
wartości
Tteoret
i Tnumeryczne, widać doskonałą zgodność wyników z obydwu metod.
Jakie wyniki daje eksperyment?
Celem doświadczenia przeprowadzonego przez uczniów
było wyznaczenie wartości funkcji
d(Θ) = T/T0 oraz oszacowanie niepewności dokonanych pomiarów.
Stosując uproszczoną metodę
logarytmiczną, otrzymujemy:
.
Pomiar okresu drgań wykonuje każdy uczeń na lekcjach fizyki,
realizując ćwiczenie dotyczące wyznaczania ziemskiego przyspieszenia grawitacyjnego. W przypadku
wyznaczenia stosunku T/T0 jest
bardzo subtelna różnica, nawet dla
Θ = 90° okresy T i T0 różnią się tylko o 18%.
Nie można więc zmierzyć czasu
np. 10 czy 20 drgań i w ten sposób
zmniejszyć niepewności wyznaczania T, gdyż z każdym wahnięciem
amplituda maleje, co stoi w sprzeczności z celem doświadczenia.
Pomiar stoperem ręcznym trzeba zastąpić dokładniejszym pomiarem stoperem elektronicznym.
Możliwość taką daje np. zestaw
do komputerowego wspomagania
doświadczeń Coach wyposażony
w wiele czujników pomiarowych
różnych wielkości fizycznych. Czujniki połączone ze specjalną konsolą i kartą komputerową poprzez
oprogramowanie Coach zamieniają sygnały analogowe z czujników
na sygnały cyfrowe, które można
obserwować i rejestrować, a następnie analizować.
Układ pomiarowy składa się
ze statywu z zamontowanym kątomierzem, który umożliwia pomiar kąta wychylenia wahadła.
Zawieszenie stalowego odważnika
o masie 50 g na dwóch niciach zapewnia drgania wahadła w jednej
płaszczyźnie.
Czujnik światła pozwala wyznaczyć odstęp czasu od jednego do
drugiego przesłonięcia wiązki wysyłanej przez laser do detektora. Czas
ten jest połową okresu drgań, wyznaczonego z dokładnością do 1 ms.
Wyniki pomiaru okresu drgań
dla l = 52 cm oraz współczynnika
d(Θ) przedstawia tabela 2.
Zamieszczając na wspólnym wykresie wyniki pomiarów (z niepewnościami pomiarowymi obliczonymi UML), wartości teoretyczne
współczynnika d oraz wyniki procedury numerycznej, widzimy bardzo
Rys. 1.
dużą zgodność wszystkich trzech
zależności wartości d(Θ) (rys. 1).
Dotychczasowe rozważania prowadzone były przy milczącym założeniu braku oporu powietrza podczas ruchu. Z zasady zachowania
Fizyka w Szkole 1/2013
25
z naszych lekcji
Tabela 2.
Procedura numeryczna
Teoria
Eksperyment
Θstart [°]
Θ0 [°]
T/4 [s]
T/2 [s]
dnumer
dteoret
T/2exp [s]
dexp
∆d
5
5
0,3615
0,723
1,0000
1,0005
0,725
1,0000
0,0014
10
10
0,3623
0,725
1,0022
1,0019
0,725
1,0000
0,0014
15
15
0,3630
0,726
1,0041
1,0043
0,727
1,0028
0,0014
20
20
0,3643
0,729
1,0077
1,0077
0,729
1,0055
0,0014
25
25
0,3658
0,732
1,0119
1,0120
0,730
1,0069
0,0014
30
30
0,3678
0,736
1,0174
1,0174
0,737
1,0166
0,0014
35
34
0,3695
0,739
1,0221
1,0225
0,742
1,0235
0,0014
40
39
0,3723
0,745
1,0297
1,0298
0,748
1,0317
0,0014
45
43
0,3746
0,749
1,0362
1,0364
0,754
1,0400
0,0014
50
49
0,3788
0,758
1,0477
1,0477
0,761
1,0500
0,0014
55
53
0,3818
0,764
1,0562
1,0563
0,766
1,0567
0,0014
60
58
0,3861
0,772
1,0680
1,0681
0,776
1,0703
0,0014
65
63
0,3908
0,782
1,0811
1,0813
0,787
1,0855
0,0014
70
67
0,3950
0,790
1,0927
1,0928
0,799
1,1021
0,0015
75
71
0,3996
0,799
1,1054
1,1054
0,804
1,1090
0,0015
80
77
0,4071
0,814
1,1261
1,1262
0,824
1,1366
0,0015
80
0,4112
0,822
1,1375
1,1375
85
0,4186
0,837
1,1577
1,1579
90
0,4267
0,853
1,1804
1,1803
energii wynika, że dla dużych wychyleń prędkość ruchu masy przy
przechodzeniu przez położenie
równowagi jest również większa.
Przy założeniu proporcjonalności siły oporu do prędkości równanie ruchu masy wahadła przyjmie
postać:
,
.
gdzie
Jeżeli:
,
mas = –mg sinΘ – gv,
gdzie: g to współczynnik tłumienia,
a v to szybkość ruchu.
Podstawiając, jak poprzednio,
za as oraz za v:
,
otrzymujemy równanie różniczkowe:
to tłumienie można uznać za małe
i wówczas
w ≅ w0 ⇒ T ≅ T0.
Dobrym kryterium rozstrzygającym o wpływie oporu powietrza na
okres drgań jest analiza wartości
tzw. logarytmicznego dekrementu
tłumienia, wyznaczanego z amplitud dla kolejnych wychyleń, czyli
w odstępie czasu T/2:
,
.
które dla małych wychyleń daje
rozwiązanie:
26
Fizyka w Szkole 1/2013
Wyliczając współczynnik g i podstawiając go do warunku małego
tłumienia, otrzymujemy ostatecznie, że z małymi tłumieniami mamy
do czynienia wówczas, gdy:
,
czyli:
.
Po obliczeniu wartości wyrażenia po lewej stronie dla największych amplitud, gdy tłumienie jest
największe, okazuje się, że jest ono
–4
rzędu 10 , czyli w warunkach tego
doświadczenia można uznać, że
tłumienie nie wpływa na wartość
okresu pojedynczego drgania.
Doświadczenie,
początkowo
pomyślane tylko jako wyznaczenie
okresu drgań dla dużych wychyleń
na potrzeby konkursu uczniowskiego w projekcie FENIKS, ewoluowało i ostatecznie przerodziło
się w większy projekt, który pozwolił zmierzyć się z tematem drgań na
wielu płaszczyznach: teoretycznej,
doświadczalnej i numerycznej.
Dało uczniom wiele satysfakcji
z uzyskanego efektu, a w czasie
opracowywania było powodem do
sięgania po literaturę dotyczącą
zarówno fizyki drgań, jak i analizy
matematycznej w zakresie równań
różniczkowych oraz technologii informacyjnej.
mgr Marek Lipiński
nauczyciel fizyki, e-mail: [email protected]
Część doświadczalną opracowali:
Aleksander Czarnecki, Przemysław Kuta
uczniowie klasy III o profilu matematyczno-fizycznym,
I Liceum Ogólnokształcące im. K. Brodzińskiego,
Tarnów
LITERATURA
[1] Kittel Ch., Knight W.D., Ruderman
M.A., Mechanika, PWN, Warszawa
1969.
[2] Szczeniowski S., Fizyka doświadczalna, t. 1, PWN, Warszawa 1980.
[3] Szydłowski H., Pracownia fizyczna,
PWN, Warszawa 1997.
[4] h t t p : / / p l . w i k i p e d i a . o r g / w i k i /
Wahadło
z naszych lekcji
O umiejętnościach,
wiedzy i kompetencjach
w nauczaniu fizyki
Grzegorz Karwasz
O
bowiązująca podstawa programowa, inne dokumenty MEN, teksty metodyczne, a teraz i ramy
kształcenia, transplantowane z wytycznych unijnych,
operują trzema kategoriami przekazu dydaktycznego.
Są to:
1) wiedza;
2) umiejętności;
3) kompetencje społeczne.
Wydaje się jednak, że zarówno zdolności tłumaczy,
jak i autorów oryginalnych wytycznych nie do końca
podołały zadaniu modernizacji dydaktyki według wymagań XXI wieku. Wymagania te wynikają z nowych
środków przekazu informacji: wiedza jest powszechnie dostępna, umiejętnością staje się selekcja tej wiedzy, a kompetencje społeczne coraz bardziej zanikają
w świecie portali społecznościowych. Jak w programach fizyki uwzględnić te wymagania, szczególnie
w dobie okrojonych programów nauczania?
Podstawa programowa
Reforma programowa, krytykowana przez nas bardzo bezwzględnie już w 1997 roku [1], zaczyna przynosić swoje druzgocące żniwo. Wprowadzenie gimnazjów, na wzór włoskich z ich fatalnej reformy ministra
Gentiliniego z 1929 roku, doprowadziło do rozprzęgnięcia funkcji pedagogicznych. Trzyletnie liceum, na
wzór francuskiego (ale bez ich école préparatoire [2]),
nie dostarcza niezbędnej wiedzy humanistycznej [3],
a „bałkanizacja systemu kształcenia nauczycieli” [4]
dopełnia całości nieszczęścia.
Za zaletę nowej podstawy programowej należy
bezwzględnie uznać samą koncepcję podstawy. Polska jest jedynym znanym mi krajem, w którym programy nauczania są własnością intelektualną firm
wydawniczych. Nowa podstawa tę kwestię reguluje,
nie ingerując w zarejestrowane już programy, a wyznaczając minima kształcenia. Niestety, ryzyko wprowadzania minimów polega na tym, że staną się one
jednocześnie maksimum – sumą wiedzy proponowanej uczniowi.
Profesor J. Mostowski w swoim komentarzu do
podstawy ujmuje to tak: „Różnie można określać
zmiany w podstawie programowej. Nazwanie reformy
postępującą infantylizacją szkoły ma mocno pejoratywny wydźwięk i odzwierciedla raczej rozczarowanie
niektórych środowisk do upowszechnienia wykształcenia średniego. Trzeba jednak zgodzić się z zasadniczą
tezą, że nowa podstawa programowa znacznie obniża
wymagania stawiane uczniom” [5].
Wadą (a może nieszczęściem koniecznym) nowej podstawy jest kontynuacja treści na kolejnych,
wyższych szczeblach kształcenia. W ten sposób niewydolność organizacyjna (za krótki cykl nauczania)
i pedagogiczna (młodzież „przerośnięta”) gimnazjów
została przerzucona na zmiany programowe. Zmiany
te, mimo protestów (słabych i nielicznych) środowiska
fizyków, doprowadziły do usunięcia podstaw fizyki
z liceum, zastępując je fizyką współczesną. To z kolei
rodzi dwa kolejne niebezpieczeństwa – przeciętny absolwent liceum lub nawet studiów (ekonomicznych,
prawniczych, humanistycznych) całą swoją wiedzę
o mechanice i elektromagnetyzmie wyniesie z kursu
gimnazjalnego. Oznacza to, że kurs gimnazjalny powinien zostać rozszerzony o dodatkowe umiejętności
i kompetencje, a nie ograniczony.
Niestety, większość wydawnictw opatrzyła podręczniki nadrukiem zgodne z nową podstawą, nie zmieniając
uprzednich form przekazu. Eksperymentalny Poręcznik do fizyki UMK [6] jest próbą zmiany sposobu narracji przy zachowaniu niezbędnych treści (jak choćby
ruchu po okręgu i pojęcia wektorów). Niestety, nie ma
on na tyle wypracowanej formy graficznej i niezbędnej
obudowy zewnętrznej (zbiory zadań, poradniki metodyczne itd.), aby próbować zastąpić podręczniki.
W temacie fizyki współczesnej jest niestety jeszcze
gorzej. Pobieżny ogląd podręcznika dla liceum jednego z większych wydawców już obecnie pozwala przewidzieć, że fizyka nie będzie się cieszyła poważaniem
wśród licealistów. Podręcznik ów to zbiór internetowych tabelek i luźnych faktów, bez śladu narracji dydaktycznej.
W warunkach szybkich i radykalnych zmian niezbędne jest więc sprecyzowanie, co powinno stanowić
Fizyka w Szkole 1/2013
27
z naszych lekcji
treść trzech wymienionych kategorii przekazu dydak1
tyczno-pedagogicznego .
Wiedza, umiejętności, kompetencje
Liczne sformułowania zawarte w podstawie wskazują na trudności w rozgraniczeniu wiedzy, umiejętności, nie wspominając o kompetencjach. Przeanalizujmy jakikolwiek wybrany akapit, np. o grawitacji.
Porównamy dwa ujęcia tego samego zagadnienia, kolejno w wersji podstawowej i rozszerzonej.
1. Grawitacja i elementy astronomii. Uczeń:
1) opisuje ruch jednostajny po okręgu, posługując się
pojęciem okresu i częstotliwości;
2) opisuje zależności między siłą dośrodkową a masą,
prędkością liniową i promieniem oraz wskazuje
przykłady sił pełniących rolę siły dośrodkowej;
3) interpretuje zależności między wielkościami w prawie powszechnego ciążenia dla mas punktowych
lub rozłącznych kul;
4) wyjaśnia, na czym polega stan nieważkości, i podaje
warunki jego występowania;
5) wyjaśnia wpływ siły grawitacji Słońca na ruch planet
i siły grawitacji planet na ruch ich księżyców, wskazuje siłę grawitacji jako przyczynę spadania ciał na
powierzchnię Ziemi;
6) posługuje się pojęciem pierwszej prędkości kosmicznej i satelity geostacjonarnego; opisuje ruch
sztucznych satelitów wokół Ziemi (jakościowo),
wskazuje siłę grawitacji jako siłę dośrodkową, wyznacza zależność okresu ruchu od promienia orbity
(stosuje III prawo Keplera).
4. Grawitacja. Uczeń:
1) wykorzystuje prawo powszechnego ciążenia do
obliczenia siły oddziaływań grawitacyjnych między
masami punktowymi i sferycznie symetrycznymi;
2) rysuje linie pola grawitacyjnego, rozróżnia pole jednorodne od pola centralnego;
3) oblicza wartość i kierunek pola grawitacyjnego na
zewnątrz ciała sferycznie symetrycznego;
4) wyprowadza związek między przyspieszeniem grawitacyjnym na powierzchni planety a jej masą i promieniem;
5) oblicza zmiany energii potencjalnej grawitacji i wiąże je z pracą lub zmianą energii kinetycznej;
6) wyjaśnia pojęcie pierwszej i drugiej prędkości kosmicznej; oblicza ich wartości dla różnych ciał niebieskich;
7) oblicza okres ruchu satelitów (bez napędu) wokół
Ziemi;
8) oblicza okresy obiegu planet i ich średnie odległości od gwiazdy, wykorzystując III prawo Keplera dla
orbit kołowych;
9) oblicza masę ciała niebieskiego na podstawie obserwacji ruchu jego satelity.
W obu wersjach sformułowane zadania sugerują,
że chodzi wyłącznie o umiejętności. Jaka jest waga
podanych umiejętności? Czy mają one, według terminologii UE, charakter interdyscyplinarny i intersektorowy? Innymi słowy, czy znajomość prawa
grawitacji przyda się np. w elektrostatyce? A może
w geografii? (To byłaby interdyscyplinarność). Czy
znajomość prawa grawitacji pomoże technikowi instalującemu antenę satelitarną? A może projektantowi
odbiorników GPS? (To intersektorowość).
Wydaje się, że wiele z tych umiejętności to jedynie
słowny opis tego, co fizycy nauczyli się zawierać w krótkim wzorze matematycznym. W wersji podstawowej
2
podpunkt 2 zdaje się mówić F = mv /r; w wersji rozszerzonej w podpunkcie 1 chodzi o znajomość (czyli znów
2
wiedzę) prawa grawitacji Newtona F = GMm/r , podobnie jak w podpunkcie 3 wersji podstawowej: „uczeń
interpretuje wielkości...”.
Rozważmy inne, potencjalne umiejętności zawarte
w podstawie. Na ile są one umiejętnościami? W jaki
sposób łączą wiedzę w spójną całość? Które z nich są
niezbędne, a które stanowią jedynie „kosmetyczne”
dodatki?
Podpunkt 2 wersji rozszerzonej: czy rysowanie linii sił
pola grawitacyjnego jest umiejętnością istotnie ważną?
Czy autorzy zadania potrafią je narysować np. dla dwóch
blisko siebie położonych gwiazd? Czy znamy sposoby
ich wizualizacji, jak np. linii sił pola magnetycznego?
Podpunkt 3: czy dla ciała sferycznie symetrycznego
prawo grawitacji na zewnątrz jest inne niż dla masy
punktowej? Czy potrafimy choćby jakościowo pokazać, za Newtonem, że ciało sferycznie symetryczne
jest równoważne masie punktowej? A może lepiej poczekać z tą umiejętnością do kursu uniwersyteckiego
elektrostatyki i prawa Gaussa?
Podpunkt 8: w jakim sensie uczeń oblicza, korzystając z III prawa Keplera? Czyżby znów chodziło
o znajomość (= wiedzę) III prawa Keplera? A może
cenniejsza byłaby umiejętność wyprowadzenia III
prawa Keplera z prawa grawitacji? Może warto dodać
kompetencję społeczną rozumienia historii nauki
według dawnego banknotu 1000-złotowego i oryginału? „IIII. Martis bima revolutio. III. Iovis. XII. anno2
rum revolutio. II. Saturnus anno. XXX revoluitur” .
Wydaje się więc, że w temacie grawitacji:
l wiedzą jest znajomość:
– wzoru Newtona na siłę grawitacji,
– wzoru na energię potencjalną w polu grawitacyjnym;
l umiejętnością wynikającą ze wzoru na siłę grawitacji jest wyprowadzenie:
1 Używając określenia przekaz dydaktyczno-pedagogiczny, odwołujemy się do koncepcji pedagogical-contents knowledge sformułowanej pod koniec XX wieku w USA [7].
2 Mówimy oczywiście o powszechnie znanym rysunku Układu Słonecznego z dzieła Kopernika. Zob. np. http://www.hps.cam.
ac.uk/starry/copernicus.html.
28
Fizyka w Szkole 1/2013
z naszych lekcji
a)
b)
Rys. 1. Kompetencje społeczne w nauczaniu fizyki; a) Umiejętność bezpiecznego posługiwania się miernikiem uniwersalnym przyda się w całym dorosłym życiu. W grupie
mieszanej wydaje się, że to dziewczęta zajmują się organizacją pracy. Warsztaty fizyczne dla dzieci, Głogów, autor: G.K.; b) Przykłady różnych form organizacji pracy w klasie
omawiamy w materiałach projektu UE MOSEM [9]
– III prawa Keplera,
– przyspieszenia grawitacyjnego na powierzchni
Ziemi,
– okresu obiegu satelity dla zadanej odległości od
planety o danej masie,
– masy planety (np. Jowisza) na podstawie znajomości okresu obiegu jego księżyców i odległości
tych księżyców od środka planety (warto pokazać
te księżyce przez lornetkę),
– I prędkości kosmicznej (oczywiście należy
uczniowi wyjaśnić, że prędkość ta nie ma praktycznego sensu; miała ona sens w rozważaniach
Verne’a i Ciołkowskiego. Dziś należałoby mówić
o pracy wykonanej w celu wyniesienia rakiety na
orbitę okołoziemską);
l umiejętnością dodatkową wynikającą ze wzoru
na energię potencjalną jest wyprowadzenie drugiej
(i trzeciej) prędkości kosmicznej.
Istotne jest, aby treści znanych ze starych programów nauczania nie klasyfikować na nowo jako umiejętności. Umiejętnością jest bez wątpienia rozgraniczenie, kiedy korzystamy ze wzoru na siłę, a kiedy na
energię w polu grawitacyjnym. Nie jest umiejętnością
nazwanie symboli we wzorze. W ramach umiejętności
nie przekraczałoby możliwości licealisty wyjaśnienie,
że siła grawitacji działa prostopadle do linii ekwipotencjalnych, tym bardziej że bez pojęcia powierzchni ekwipotencjalnej nie jesteśmy w stanie wyjaśnić
kształtu Ziemi [8].
Nadal w tak redefiniowanej podstawie programowej brakuje kompetencji. Trudno oczywiście o kompetencje społeczne w zakresie prawa grawitacji, ale
warto byłoby dać uczniowi punkt odniesienia np. do
zastosowań praktycznych. Mogłaby być taką kompetencją znajomość wysokości orbit satelitów geostacjonarnych (jak to mówi podpunkt 6, ale tylko wersji
podstawowej), satelitów GPS, satelitów do pomiaru
pola grawitacyjnego itd. Kompetencją społeczną byłaby również umiejętność czytania górskiej mapy – wyznaczenia z układu poziomic na mapie (tj. linii ekwipotencjalnych potencjału grawitacji), które podejście
jest najbardziej łagodne. Kompetencją jest umiejętność połączenia historii nauki, fizyki, geografii.
Ogólne kompetencje, które powinno przynosić nauczanie fizyki, to przekaz, że – podobnie jak inne nowożytne nauki – fizyka jest:
1) nauką doświadczalną, w której opis doświadczenia pozwala na jego powtórzenie w dowolnym miejscu i czasie;
2) nauką matematyczną, w której wynik doświadczenia jest opisywany przez zależności ilościowe;
3) nauką kantowską, w której doświadczenie udziela
odpowiedzi na sformułowaną wcześniej kategorię
pojęciową [10].
Nie tylko fizyka
W wielu podręcznikach widać starania autorów
o podjęcie kompetencji interdyscyplinarnych i rozbudowę treści poza niezbędne minima, ale nie zawsze są
to próby udane. Aby nie wpędzać fizyków w kompleksy, zaczniemy od historii i biologii. W podręczniku do
nauki historii w liceum (zakres podstawowy) dużego
wydawnictwa znaleźliśmy elementy ekonomii (rys. 2).
Omawiane są zmiany cen w XVII wieku, po odkryciu
Ameryki. Ekonomiści wiedzą, że okres ten jest dobrym przykładem teorii podaży pieniądza: duża ilość
kruszcu napływająca do Europy z Ameryki spowodowała jego deprecjację, innymi słowy – wzrost cen nominalnych. Wykres na rys. 2 mówi natomiast o „nożycach cen”, czego proste wyrysowanie linii regresji
nie potwierdza!
Podręcznik do nauki biologii, również ogólnie bardzo dobry, przy omawianiu zmienności genetycznych
wkracza niechcący w zagadnienia statystyki, a właściwie
Fizyka w Szkole 1/2013
29
z naszych lekcji
niki niemieckie lub francuskie),
podręczniki wiedzy budowanej
na podstawie zjawisk (np. Fizyka
wokół nas P. Hewitta), podręczniki narracyjne (jak Feynmana),
podręczniki formalne (jak np.
podręczniki włoskie). Polskie
podręczniki fizyki należałoby
ocenić, niestety, krytycznie jako
dość eklektyczne uproszczenia
pozycji obecnych na polskim
rynku w latach wcześniejszych,
nasycone przy tym dużą ilością
luźnej dodatkowej wiedzy (choć
nie tak ogromną jak np. podręczniki geografii lub wiedzy o społeczeństwie).
Na rysunku 4 cytujemy z podRys. 2. Wątpliwej jakości „umiejętności interdyscyplinarne” w licealnym podręczniku do nauki historii. Nie tylko fizyk zauważy słabość prezentowanych danych. Wahania cen zboża zależą od urodzaju; wzrost cen można przybliżyć za pomocą ręcznika dla liceum (już chyba
funkcji liniowej; na początku i na końcu omawianego okresu ceny zboża (w przyjętych dla porównania jednostkach) były nieużywanego) wyjaśnienie siły
nieco ponad dwukrotnie wyższe niż ceny sukna. „Nożyce cen" są więc po prostu liniami regresji, a wzrost cen mierzony
oddziaływania magnetycznego
ilością złota odzwierciedla deprecjację złota związaną ze znacznym napływem tego kruszcu z hiszpańskiej Ameryki
dwóch przewodników z prądem.
Wyjaśnienie to, przypisywane
dokładności zaokrągleń (rys. 3). Trudno z przedstawio- A. Einsteinowi3, wydaje się nie mieć specjalnego znanego wyliczenia ilości kwiatów czerwonych i białych czenia dydaktycznego dla zrozumienia magnetyzmu.
zrozumieć, że chodzi o względne populacje 1/4 i 3/4. Uczeń instynktownie po kursie elektrostatyki oczekiZ tego też powodu w Toruńskim poręczniku przed za- wałby informacji na temat oddziaływania magnesów.
gadnieniami fizycznymi przytaczamy metody zaokrągla- Podręcznik niemiecki takie oddziaływanie ilustruje,
nia liczb do określonych zastosowań i reguły obliczeń włoski podręcznik uniwersytecki – nawet je matemaprzybliżonych zarówno w ekonomii, jak i w farmacji.
tycznie wylicza (rys. 4).
Przejście od zjawiska do jego opisu matematyczKonstruowanie ścieżek
nego winno odbywać się stopniowo, tak aby uczeń
W podręcznikach fizyki, zresztą często krytycznie nadążał za narracją, zdobywając nie tylko kolejne
recenzowanych np. przez Polskie Towarzystwo Fizycz- wiadomości, ale i umiejętność rozumowania indukne, za główne mankamenty należy uznać nie błędy cyjnego. W ramach zestawów dydaktycznych [13]
merytoryczne, ale brak strategii edukacyjnych. Trud- wypracowanych na UMK w projekcie Leonardo da
no polskie podręczniki zakwalifikować do jasnych Vinci MOSEM kilka kolejnych doświadczeń dotyczy
klas: podręczniki wiedzy praktycznej (jak np. podręcz- siły oddziaływania między magnesami. Czynimy to,
dydaktycznie, w kolejności rosnącej trudności. Zaczynamy
ścieżkę od magnesów wiszących
jeden na drugim i ilustrujących
III prawo dynamiki Newtona;
taka kolumienka magnesów
pozwala jedynie na jakościo-
Rys. 3. Fragment bardzo dobrego podręcznika do
nauki biologii na poziomie licealnym: dziedziczenie cech z krzyżówki dwuosobnikowej, z jednym
genem dominującym. Podane wyliczenia (np.
73,97% i 26,03%) to w zaokrągleniu 1/4 i 3/4 –
podanie czterech cyfr znaczących nie jest możliwe
dla populacji poniżej 1000 egzemplarzy!
3 Wydaje się to nie znajdować potwierdzenia w artykułach oryginalnych A. Einsteina, zob. np. D.V. Redžić, Comment on
„Lorentz contraction and current-carrying wires”, Eur. J. Phys. 31 (2010) L31.
30
Fizyka w Szkole 1/2013
z naszych lekcji
1)
2)
3)
Rys. 4. Trzy różne sposoby nauczania o oddziaływaniach magnetycznych: 1) heurystycznie fascynujące, ale trudne do zrozumienia, jeśli ma zastąpić pojęcie magnesów i ich
biegunów; 2) praktyczne, bez niezbyt bezpiecznego wchodzenia w szczegóły [11]; 3) próba formalnej, na poziomie uniwersyteckim, odpowiedzi na pytanie, jak oddziałują
bieguny magnesów [12]
we określenie siły oddziaływania (fot. 1a). W drugim
doświadczeniu, z magnesami sztabkowymi wiszącymi
w szklanej rurce (fot. 1b), można zmierzyć odległość
między kolejnymi magnesami. Oczywiście zależność
matematyczna jest jedynie orientacyjna – nie jest to
prawo Coulomba i nie jest to oddziaływanie między
dipolami elektrycznymi. Doświadczenie z magnesem
i staczającą się stalową kulką (tzw. skoki narciarskie,
fot. 1c) pozwala na zmianę prędkości kulki i odległości jej trajektorii od magnesu. Komputerowa analiza
obserwowanych torów umożliwia znalezienie innego
prawa matematycznego, niż się spodziewamy – siła
oddziaływania wydaje się odwrotnie proporcjonalna
do siódmej potęgi odległości kulki od magnesu [14].
Dzięki serii tych trzech doświadczeń zdobywamy
umiejętność stawiania pytań i rozumowania krok po
kroku: od obserwacji jakościowej aż do przeprowadzenia pomiarów z użyciem komputera.
W XXI wieku, w natłoku informacji, należy ostrożnie wybierać umiejętności, ponieważ niektóre z nich
mogą być na tyle ważne, że bez nich pozostały gmach
wiedzy mógłby runąć. Innymi słowy, umiejętności
stanowią rodzaj żelbetowego szkieletu, który następa)
b)
nie zostaje wypełniony cegłami wiedzy. Rozważmy
kolejny przykład z elektromagnetyzmu, bardzo „lubiany” w większości podręczników – kierunek siły
Lorenza. Wiedzą istotną w temacie siły „elektrodynamicznej” (nie mylić z elektrochemiczną, elektromotoryczną, elektromagnetyczną, magnetohydrodynamiczną itd.) jest to, że działa ona prostopadle do linii
sił pola magnetycznego (a właściwie – według wzoru
– do linii indukcji magnetycznej) i do kierunku przepływu prądu (zdefiniowanego jako kierunek przepływu ładunków dodatnich). Czytelnik już z informacji
w nawiasie w poprzednim zdaniu zauważa, że ilość
konwencji, ręki prawej lub lewej itd., czyni „umiejętność” określenia kierunku siły bardzo wątpliwą, jak to
ilustruje następny rysunek, zaczerpnięty z włoskiego
czasopisma dydaktyki fizyki.
„Umiejętność” wyznaczenia kierunku wychylenia się
ramki należałoby więc uznać za zbędną, jako że realne
szanse trafienia na właściwą odpowiedź wynoszą 1/8
(kierunek przepływu prądu, kierunek linii sił pola magnetycznego, reguła ręki). Właściwy kierunek siły Lorenza określi student (po nabyciu umiejętności posługiwania się iloczynem wektorowym) jako F = I l × B.
c)
Fot. 1. Ścieżka dydaktyczna omawiająca w sposób półilościowy oddziaływanie magnesów: a) oddziaływanie magnesów dipolowych o biegunach odległych (Geomag™); b) oddziaływanie magnesów o biegunach bliskich sobie; c) tzw. magnetyczne skoki narciarskie – oddziaływanie magnesu z dipolem indukowanym w stalowej kulce – obserwowana
zależność od odległości przybliża się jako r–7, zob. „Toruński doświadczalnik z fizyki” [13]
Fizyka w Szkole 1/2013
31
z naszych lekcji
Rys. 5. Zbytnią formalizację nauczania, poprzez wprowadzanie reguł niezbyt istotnych dla całości wiedzy, należy uznać za szkodliwą, jak to parafrazuje rysunek pochodzący
z lat 50. XX wieku autorstwa wybitnego włoskiego fizyka czeskiego pochodzenia, Brunona Touschka (za: „Nuovo Cimento”)
Generalna umiejętność – śruby prawoskrętnej – zastąpi
nieudolne wyciąganie palców i reguły dyskryminujące
osoby manualnie odmienne. Istotny przekaz w prawie
indukcji elektromagnetycznej to odniesienie do prawa
zachowania energii, zob. [15].
O ile kwestia podręczników jest rozwiązywalna,
o tyle prawdziwą tragedią dydaktyczną okazuje się
internet. Nawet w najprostszych zagadnieniach (jak
pęd lub moment pędu), na najlepszych naukowo stronach (w rodzaju Wikipedii) przedstawiony materiał
jest dla przeciętnego ucznia całkowicie niezrozumiały, a wręcz misleading. Jedynie niewiele instytucji, np.
liceum w Turku, podjęło trud stworzenia materiałów
przyjaznych dla ucznia i nauczyciela.
Kłopot w wiarygodnym wykorzystaniu internetu
jako środka dydaktycznego polega na jego anonimowości, a właściwie specyficznej dla
Polski „wieloautorowości”. Praktykowana powszechnie „społeczna
własność dóbr intelektualnych”
uniemożliwia alokację wartości dodanej do bezpośrednich
wytwórców innowacji (pozwalam sobie użyć terminologii ekonomicznej). Stąd cała nadzieja
w ACTA.
Rys. 6. Internet, przy całym zalewie informacji, nie dostarcza uczniowi narzędzi przyjaznych. Strona Wikipedii
w dziesiątej linijce hasła „pęd” cytuje zasadę Noether, inna strona jako trzeci wzór w tym temacie podaje równanie
Schrödingera
32
Fizyka w Szkole 1/2013
OECD: od PISA do AHELO
Punktem odniesienia do rozwiniętych gospodarek świata była
dla Polski jeszcze w latach 60.
XX wieku Organizacja ds. Rozwoju Ekonomicznego i Współpracy (OECD), obejmująca swoimi
działaniami nie tylko UE i kraje gospodarczo zaawansowane.
OECD systematycznie ocenia systemy edukacyjne różnych krajów,
w tym Polski (zob. porównania
w referacie autora) [16]. Jednym
z tych systemów ocen jest PISA,
w którym w ostatnich latach polscy
uczniowie znacznie poprawili swoje wyniki. Jest to wynik napawający
optymizmem, choć w oficjalnych
dokumentach OECD poddawane
są pod dyskusję rzeczywiste powody tej poprawy. Kolejne dokumenty OECD oceniają krytycznie
z naszych lekcji
Drugiem, aby każdą z rozpatrywanych trudności podzielić na tyle
cząstek, na ile się da i ile będzie potrzeba dla lepszego jej rozwiązania.
Trzecie, aby prowadzić myśli po
porządku, zaczynając od przedmiotów najprostszych i najłatwiejszych
do poznania, i pomału, jak gdyby po
stopniach, wstępować aż do poznania bardziej złożonych i przyczem
należy przypuszczać porządek nawet
między temi, które nie tworzą natuRys. 7. Nowe wymagania OECD w kwestii nauczania uniwersyteckiego nie dotyczą ani umiejętności liczenia, ani
ralnego szeregu.
wiedzy przyrodniczej, a jedynie zasadniczych reguł zachodniego, analitycznego sposobu myślenia
Ostatnie, aby wszędzie czynić wyszczególnienia tak dokładne i przegląinne aspekty polskiego systemu edukacji, np. znaczną dy tak powszechne, abym był pewny, iż nic nie opuściłem.
formalizację systemu oceny szkół, małą sumaryczną
liczbę godzin szkolnych, małą liczbę godzin poświę- Wnioski
Nowe ramy kształcenia i podstawa programowa wycanych na naukę języka ojczystego (zob. szczegółowe
magają uczenia wiedzy, umiejętności i kompetencji;
dane w [16]).
Prawdziwym wyzwaniem jest jednak nie poprawa żaden z dokumentów nie pokazuje dość jasno, jak je
wyników porównań według minionych kryteriów oce- rozgraniczyć. Warto byłoby podjąć dyskusję i rozpisać
ny, ale przygotowanie systemu nauczania do nowych poszczególne hasła z podstawy na szczegółowe wskazówwymagań OECD. Taki system został w 2010 roku ki metodyczne. Praca (anonimowej) grupy ekspertów
sformułowany dla nauczania uniwersyteckiego; kraje z fizyki z minionych lat nie zastąpi konieczności permamogą w nim uczestniczyć na zasadzie dobrowolności. nentnej debaty nad sposobami realizacji zadanych treści
Nowy system oceny jakości systemu szkolnictwa wyż- metodami, które bezustannie oferują nowe możliwości.
O ile od studenta UE zaczyna wymagać głównie
szego, AHELO [17], jest dość niezwykły – nie będzie
oceniał wiedzy ani nawet umiejętności szczegóło- myślenia krytycznego, powinniśmy się, jako nauczyciele i wykładowcy, również do tego wymagania powowych, lecz jedynie cztery umiejętności ogólne.
Umiejętnościami cytowanymi przez AHELO są li przyzwyczajać. Wiedza winna być konstruowana, ale
nie – jak tego oczekiwał J. Piaget – przez samodzielne
(w podanej kolejności):
l myślenie krytyczne;
myślenie ucznia ani – jak to postulowali konstruktywil rozumowanie analityczne;
ści społeczni – poprzez umowę zbiorowości, ale przez
l rozwiązywanie problemów;
neometodę Sokratesa: wydobywanie z pojedynczych
l komunikacja pisemna.
wiadomości uczniów (zebranych w społeczności klasoW stosunku do wymagań polskiej szkoły była- wej) tej ścieżki dojścia do wiedzy i umiejętności, któby to prawdziwa rewolucja: nagradzać powinniśmy rą nauczyciel na daną godzinę lekcyjną zaplanował.
uczniów „kłopotliwych”, tych, którzy zadają najwię- Nazywamy tę metodę nadkonstruktywizmem, jako
cej pytań, powinniśmy usuwać z treści lekcji gotowe że w warunkach powszechnej dostępności do wiedzy
wiadomości, a konstruować interaktywnie wiedzę właściwą ścieżkę rozumowania można skonstruować
z uczniami. Powinniśmy uczyć stawiania problemów, ad hoc, bez żadnego podręcznika, w oparciu jedynie
ich precyzowania werbalnego, rozbijania zagadnie- o prewiedzę uczniów. Wymaga to jednak od nauczynia na fragmenty, rozwiązywania problemów krok po ciela wysokich kwalifikacji, zob. [18].
kroku i syntetyzowania wiedzy w sposób kolektywny.
Fizyka powinna wykorzystać swoją jedyną, wspoPomocna w tym względzie jest cienka książeczka po- mnianą powyżej potrójną metodologię do:
chodząca z XVII wieku – Rozprawa o metodzie. Oto l uczenia jasności w dwuwartościowym, dychotomicznym myśleniu;
cytat: Pierwszem jest, aby nie przyjmować nigdy żadnej
rzeczy za prawdziwą, dopóki nie poznamy jej oczywiście l stawiania problemów i rozwiązywania ich stopniowo do stanu, na jaki pozwala obecna wiedza;
jako takiej: to znaczy, aby unikać starannie pośpiechu
i uprzedzenia i nie pomieszać w swoim sądzie nic, jak l lakoniczności zapisu, również z wykorzystaniem
matematyki;
tylko to, co się przedstawiło memu umysłu tak jasno:
wyraźnie, iż nie będzie miał żadnej możliwości podania l bogactwa ekspresji, bez zbędnej petryfikacji słów,
4
które w języku potocznym żyją własnymi bytami ;
tego w wątpliwość.
4 Przykładowo: szybkości i prędkości.
Fizyka w Szkole 1/2013
33
z naszych lekcji
poszukiwania płaszczyzn wspólnych z innymi na5
ukami przyrodniczymi (a także humanistycznymi) ;
płaszczyzny te to swego rodzaju „warunki brzegowe”, które poszczególne nauki powinny między sobą
uzgodnić jak w rozwiązaniu równania różniczkowego.
PS Zakład Dydaktyki Fizyki UMK (a poprzednio
Zakład Spektroskopii Akademii Pomorskiej w Słupsku) podejmuje od prawie 20 lat różnorodne działania
w celu większego zainteresowania fizyką i poprawy jakości nauczania. Wspomnimy tu pierwsze interaktywne wystawy „Fizyka i zabawki”, projekty UE, „Physics
is Fun” i MOSEM. W ramach pierwszego omówiono fizykę współczesną, w ramach drugiego stworzono zestawy doświadczalne z elektromagnetyzmu.
W ramach projektu EEA GRANTS napisany został
Toruński poręcznik do fizyki. Gimnazjum I klasa. Mechanika.
l
W dniach 6–8 grudnia ZDF UMK, przy współudziale PTF, zostało zorganizowane w Toruniu seminarium z serii Komputer w szkolnym laboratorium
przyrodniczym. Tym razem, z uwagi na wejście nowych
programów nauczania zarówno w zakresie przyrody,
jak i fizyki współczesnej, seminarium miało charakter
warsztatów z dużą ilością szczegółowo omawianych
tematów. Seminarium zorganizowano we współpracy z innymi zakładami dydaktyki UMK. Uczestnicy
otrzymali materiały drukowane (i wykłady PDF do
użytku dydaktycznego) w zakresie przyrody (około 10
z 25 tematów podstawy programowej) oraz w zakresie
fizyki współczesnej (PDF: 25 plakatów A1).
Kontakt: dr A. Karbowski: [email protected].
prof. zw. dr hab. inż. Grzegorz Karwasz
Zakład Dydaktyki Fizyki, Uniwersytet Mikołaja Kopernika w Toruniu
5 Mickiewicza „mędrca szkiełko i oko”, cytowane na naszej wystawie „Fiat Lux”, wzięło się zapewne z lunet braci Śniadeckich
w Wilnie, również „lawa” i „wewnętrzny ogień” w czasach, kiedy geologia dopiero się wykluwała, świadczą o dobrym wykształceniu przyrodniczym wieszcza.
LITERATURA
[1] G. Karwasz, Mała reforma, skrót wykładu na sesji dydaktycznej XXXVII Zjazdu PTF, Warszawa 2005; http://www.fizyka.umk.
pl/~karwasz/pliki/reforma08.pps.
[2] G. Karwasz, Feeding and fishing, czyli o popularyzacji i o rekrutacji (II). Normalna szkoła nienormalna, „Głos Uczelni” 2010, nr
6/7; http://dydaktyka.fizyka.umk.pl/Publikacje_2010/Feeding2_GK_2010.pdf.
[3] G. Karwasz, Pćmy i murkwie, czyli słowo a myśl, „Polonistyka” 2011, nr 10; http://www.edupress.pl/download/gfx/edupress/pl/
defaultopisy/856/1/1/8203500034_polonistyka_10_2011_pcmy_i_murkwie.pdf.
[4] Z. Kwieciński, 30 grzechów głównych w kształceniu nauczycieli [w:] tegoż, Tropy – ślady – próby. Studia i szkice z pedagogiki
pogranicza, Wydawnictwo EDYTOR, Poznań-Olsztyn 2000.
[5] J. Mostowski, Komentarz do podstawy programowej przedmiotu fizyka [w:] Podstawa programowa z komentarzami, t. 5, MEN,
Warszawa 2009.
[6] G. Karwasz, M. Sadowska, K. Rochowicz, Toruński poręcznik do fizyki. Gimnazjum I klasa. Mechanika, Wydawnictwo Naukowe
UMK, Toruń 2010; http://dydaktyka.fizyka.umk.pl/nowa_strona/?q=node/163.
[7] L. Shulman, Knowledge and teaching: Foundations of the new reform, „Harvard educational review” 1987, nr 1.
[8] J. Chojnacka, G. Karwasz, Elipsoida ziemska, „Foton” 2011, nr 114; http://dydaktyka.fizyka.umk.pl/Publikacje_2011/
Elipsoida_2011.pdf.
[9] W. Peeters, Seminarium dla nauczycieli. Metody nauczania, tłum. M. Sadowska, MOSEM, ZDF UMK, Toruń 2009;
http://dydaktyka.fizyka.umk.pl/mosem_new/pliki/Metody_nauczania_20071030.pps.
[10] J. Kruk, G. Karwasz, Reprezentacja, przyczynowość i badania eksperymentalne jako znaczące punkty „mapy poznawczej” dydaktyki
ogólnej, „Forum Oświatowe” 2005, nr 2; http://dydaktyka.fizyka.umk.pl/Pliki/Reprezentacja_Przyczynowosc.pdf.
[11] L. Meyer, G.D. Schmidt, Duden Basiswissen Schule. Physik, Dudenverlag Mannheim, Lepizig, Wien, Zürich 2005.
[12] P. Mazzoldi, M. Nigro, C. Voci, Fisica. Elettromagnetismo, Edises, Napoli 2005.
[13] Toruński doświadczalnik z fizyki. Elektromagnetyzm, pod red. G. Karwasza, ZDF UMK, Toruń 2009; http://dydaktyka.fizyka.
umk.pl/Doswiadczalnik/Doswiadczalnik.pdf.
2
[14] E. Kedzierska i in., Mosem Project, 14th MPTL Seminar, Udine, 23–27.09.2009; http://www.fisica.uniud.it/URDF/mptl14/ftp/
full_text/ws4.pdf.
[15] A. Karbowski i in., Discovering electromagnetic induction, 14th MPTL Seminar, Udine, 23–27.09.2009; http://www.fisica.uniud.
it/URDF/mptl14/ftp/full_text/T1_78_Karbowski.pdf.
[16] G. Karwasz, Porównanie systemów szkolnych według raportów PISA, TALIS, OECD, Środowiskowe Seminarium Dydaktyki
Fizyki, Toruń, 16.03.2011; http://dydaktyka.fizyka.umk.pl/Pliki/TALIS_2010.pdf.
[17] AHELO, Testing student and university performance globally: OECD’s AHELO, OECD 2010; http://www.oecd.org/document/2
2/0,3746,en_2649_35961291_40624662_1_1_1_1,00.html.
[18] G. Karwasz, Między neorealizmem a hyper-konstruktywizmem. Strategie dydaktyczne dla XXI wieku, „Problemy Wczesnej
Edukacji” 2011 (w druku); http://dydaktyka.fizyka.umk.pl/Wyklady_Filmy/PWE_GK_small.pdf.
34
Fizyka w Szkole 1/2013
z naszych lekcji
Media w edukacji
Telefon komórkowy
w pomiarach uczniowskich, cz. I
Kazimierz Mikulski
Ś
rodowisko, w którym żyje młode
pokolenie, jak zauważa Jadwiga Izdebska, wypełniają nie tylko
1
mass media , czyli prasa, książka,
telewizja, film, radio, płyty gramofonowe, ale również tzw. nowe
media: DVD, gry komputerowe,
komputer, internet oraz telefon
komórkowy. Koniec XX wieku,
2
dodaje Goban-Klas , rozpoczyna
erę komputera, internetu, telefonu komórkowego, wprowadzając
współczesnego człowieka w społeczeństwo informacyjne trzeciego
tysiąclecia. Autor dodaje, że jako
mały „układ elektroniczny, mikroprocesor łączy się z innymi technikami przekazu: telefonem i monitorem telewizyjnym, kompaktową
płytą muzyczną, tworząc nowe narzędzia komunikowania: miniaturowe, mobilne i multimedialne”.
Nowe media elektroniczne stanowią fundament medialnej cywilizacji, społeczeństwa określanego
mianem medialne, mediatyzowane, informacyjne, oparte są więc
na mediach. Pod wpływem tych
mediów przekształceniom ulega
poczucie przestrzeni i czasu, także
3
w szkole, powodując delokalizację
przestrzeni. Współczesna cywilizacja zwana medialną różni się
od poprzednich stale rosnącą rolą
nowych mediów cyfrowych. Nowe
działanie w tej cywilizacji (ucyfrowienie) polega na upowszechnianiu kodowania cyfrowego obrazów
i dźwięków, a więc mowy, pisma,
obrazów graficznych. Termin cy4
fryzacja jest używany od dłuższego czasu, wymienia go np. Nowy
leksykon PWN z roku 1998, jako
synonim podając digitalizację.
Wprawdzie wyrazem tym nazywa
się proces zamiany sygnału analogowego na cyfrowy, ale wtórne znaczenie rozpowszechniania
techniki cyfrowej często pojawia
się w tekstach, mówi się np. o cyfryzacji społeczeństwa. Słowa ucyfrowić, ucyfrowienie (oraz zdigitalizować, zdigitalizowanie) także są
już w użyciu, toteż bez przeszkód
można ich używać.
W kodzie cyfrowym wszystkie
elementy składowe są wyraźnie
od siebie oddzielone. Goban-Klas
wskazuje na fakt ten jako ułatwie-
5
nie przekazu, odbioru, produkcji .
Wprowadzenie kodu cyfrowego do
nowych mediów umożliwia ich łączenie i konwergencję, operowanie
tym samym uniwersalnym systemem rejestracji i transmisji infor6
macji . Konwergencja (łac. conver7
gere) to zbierać, upodabniać się
– wiele procesów obejmujących
kojarzenie zjawisk znajdujących
się na pograniczu działów telekomunikacji, informatyki i multimediów. Dobrymi przykładami są następujące pary:
l łączny przekaz głosu z danymi;
l integracja
przekazów głosu
przez różne sieci (VoIP, VoFR,
VoATM);
l współistnienie komutacji łączy
z komutacją pakietów;
l współdziałanie telefonu z kom8
puterem (CTI) ;
l integracja sieci lokalnych z rozległymi itd.
W literaturze przedmiotu inte9
gracja (ang. integration) odnosi się
do organizacji systemów (komputerowych, produkcyjnych lub administracyjnych) i polega na zespoleniu tych systemów tak, aby mogły
one korzystać nawzajem ze swoich
1 J. Izdebska, Telefon komórkowy i jego rola w życiu współczesnych dzieci – wyzwaniem dla edukacji medialnej, http://www.
up.krakow.pl/ktime/ref2009/izdebska.pdf.
2 T. Goban-Klas, Cywilizacja medialna. Geneza, ewolucja, eksplozja, WSiP, Warszawa 2005, s. 25.
3 Delokalizacja – dla gospodarki – całkowite lub częściowe zaprzestanie działalności przedsiębiorstwa w jednym kraju, z równoczesnym otwarciem przedsiębiorstwa za granicą poprzez inwestycję bezpośrednią (http://pl.wikipedia.org/wiki/Delokalizacja)
lub przesunięcie z miejsca właściwego, typowego, w inne; przemieszczenie (http://www.sjp.pl/co/delokalizacja).
4 http://poradnia.pwn.pl/lista.php?id=6592
5 T. Goban-Klas, Cywilizacja medialna. Geneza, ewolucja, eksplozja, WSiP, Warszawa 2005.
6 N. Negroponte, Życie cyfrowe. Jak sie odnaleźć w sieci komputerów, Książka i Wiedza, Warszawa 1997.
7 http://pl.wikipedia.org/wiki/Konwergencja_(multimedia)
8 CTI (ang. Computer Telephony Integration) – system (szereg aplikacji) integrujący telefon sieci publicznej z komputerem działającym w sieci LAN w celu tworzenia zautomatyzowanych usług opartych na serwerze (tzw. TServer) i łączu CTI (łącze
pomiędzy centralą telefoniczną a serwerem).
9 http://pl.wikipedia.org/wiki/Integracja_w_edukacji
Fizyka w Szkole 1/2013
35
z naszych lekcji
zasobów takich jak pliki lub urządzenia. Integracja w informatyce to
całokształt działań zmierzających
do scalenia (spójności) rozwiązań
informatycznych uzyskanych na zasadzie synergii. Wyróżnia się kilka
jej odmian:
l integracja aplikacji – działania związane z wdrażaniem rozwiązań specjalizowanego oprogramowania (branżowych);
l integracja danych – działania
mające na celu eliminowanie
z bazy danych powtórzeń oraz
elementów zbędnych (w miarę
użytkowania dane wykazują tendencję do dezintegracji);
l integracja sieciowa – działania
związane z instalacją sieci lokalnych i rozległych, okablowania
strukturalnego, światłowodów
itp.;
l integracja systemowa – działania z zakresu instalowania systemów operacyjnych, baz danych,
oprogramowania biurowego, komunikacyjnego,
okablowania
strukturalnego, aktywnych urządzeń sieciowych, urządzeń pamięci masowych, łączy internetowych, kontroli dostępu, zasilania,
instalacji alarmowych itp.
Konwergencja to zjawisko dotyczące mediów, kultury itd. Wyróżnia się konwergencję:
l mimetyczną – to upodabnianie
się form przekazu w mediach
tradycyjnych do form przekazu
w mediach nowoczesnych (internet, TV);
l mimikryczną – to proces odwrotny.
Czyżby nowa technologia
i technika kształcenia?
Wszyscy, którzy uważają, że nauczanie przez komórkę to fanaberia czy najwyżej moda, powinni
zastanowić się nad zmianą zdania.
Jakiś czas temu w Waszyngtonie odbyła się pierwsza w historii
konferencja w całości poświęcona
korzyściom, jakie już przyniosło
wykorzystanie telefonów komórkowych w edukacji. Według niektórych to nie trend – to przyszłość
10
kształcenia . W czasie, kiedy
w Polsce debatuje się nad ewentualnością zakupu laptopów dla
uczniów, a media rozwodzą się nad
zagrożeniami czyhającymi w internecie, Amerykanie organizują
już pierwsze konferencje na temat
roli mobilnej edukacji. Smartfony
i inne przenośne urządzenia na
tyle zagościły w plecakach uczniów
i studentów, że ich zastosowanie
w kształceniu wydaje się naturalną
konsekwencją.
Jednocześnie żeby uznać je za
kolejne narzędzie stosowane
w kształceniu, trzeba również
stworzyć całościową, metodyczną
koncepcję tego, jak zaadaptować
nowoczesną technologię do szkolnych warunków, żeby jak najlepiej
korzystać z jej dobrodziejstw. Prelegenci konferencji zastanawiali
się, jak takie metody pracy pomogą uczniom osiągać lepsze wyniki
w testach kompetencji i podnosić
umiejętności. Według Julie Evans
z Project Tomorrow uczniowie zapytani o to, co najbardziej chcieliby mieć, odpowiadają, że laptopa.
Powodem nie jest wyjątkowość
tego urządzenia, ale kontrola nad
własną wiedzą, którą im daje.
A przecież, jak zapewniała Evans,
podobne możliwości dają również
telefony nowej generacji, które
są dużo tańsze. Uczniowie mogą
używać ich swobodnie, kiedy chcą
i gdzie chcą, trochę jakby dostali
laptopy, ale pomniejszone do rozmiarów pozwalających zmieścić je
w kieszeni. A co istotne, telefony
są urządzeniami bardzo spersonalizowanymi.
Jakie są korzyści
11
z mobilnego nauczania ?
Czym jest faktycznie mobilne
urządzenie? Można je określić jako
skrzynkę z cyfrowymi narzędziami, którą zawsze mamy przy so-
10 http://www.edunews.pl/nowoczesna-edukacja/ict-w-edukacji/644
11 Tamże.
36
Fizyka w Szkole 1/2013
bie. Dzięki temu uczniowie mogą
mieć nieograniczony dostęp do
zasobów informacyjnych i pomocy,
które sami stworzyli. Według prof.
Elliota Solowaya z Univeristy of
Michigan, twórcy oprogramowania do komórek upodabniającego
je trochę do pecetów, nauczanie
mobilne:
l zapewnia dużą skalę: dzięki
połączeniu głównych funkcji
komputerów osobistych z zasobami internetowymi smartfony
naprawdę dają uczniom możliwość nauki gdziekolwiek i kiedykolwiek;
l jest
rozwojowe: ponieważ
większość uczniów i tak ma już
komórkę lub inne bardziej zaawansowane narzędzie, rodzice
mogą je kupować, a szkoła zainwestuje jedynie w oprogramowanie. Uczniowie wolą przenośne urządzenia od laptopów, bo
łatwiej je zabierać ze sobą. Kolejnym wyzwaniem jest jeszcze
stworzenie planu wprowadzenia
edukacji mobilnej do programów nauczania;
l jest unikalne: nauka za pośrednictwem komórek tworzy zupełnie nowe możliwości, szczególnie jeżeli chodzi o komunikację
za pomocą blogów i wszelkie
działania zakładające wysyłanie
wiadomości tekstowych.
Soloway i jego naukowcy stworzyli nawet specjalne oprogramowanie, które pozwala przekształcić
smartfony w wirtualne pecety. Mobile Learning Environment (MLE)
testowane jest obecnie w szkole
podstawowej w Teksasie.
Jak na razie pozwala m.in. na:
l przeszukiwanie internetu;
l odtwarzanie animacji;
l używanie takich programów jak
Word czy Excel.
Możliwości techniczne to jednak
tylko jeden aspekt rozwoju mobilnej nauki. Warto przy tej okazji zadać sobie kluczowe pytanie: po co
właściwie istnieje szkoła?
z naszych lekcji
Jak dotąd powtarzano jak mantrę, że jest to instytucja służąca przekazywaniu uczniom informacji.
Ale czasy się zmieniły, a uczniowie czerpią wiedzę również z internetu oraz z wielu innych źródeł.
Jaką rolę odgrywa w takim razie
szkoła?
Agnieszka Andrzejczak pisze, że
szkoła zamiast dostarczać zwykłe
informacje, powinna zapewniać
uczniom możliwość uczestnictwa
w zadaniach opartych na współpracy, w których same informacje
stanowią tylko podstawę, a nie cel
sam w sobie. Tam też łączyć powinny się drogi rodziców, uczniów
i członków wspólnoty lokalnej.
Początki
Najważniejszy dzień dla łączności telefonem komórkowym to 3
kwietnia 1973 roku. Tego dnia
Martin Cooper, pracownik niewielkiej firmy Motorola, pierwszy raz w historii zadzwonił
przez komórkę.
Inspiracją dla zbudowania przenośnego telefonu był dla Coopera komunikator kapitana Kirka
z serialu telewizyjnego Star Trek.
Pierwsza komórka miała ponad
20 cm długości, ważyła ponad kilogram, nie miała wyświetlacza,
a bateria wytrzymywała pół godziny rozmowy – przypomina serwis
Karciarz.pl. Pierwsza sieć komórkowa powstała dziesięć lat później.
Jakie są znane możliwości
telefonów komórkowych?
Współczesny telefon komórkowy,
jak podkreśla się w literaturze przedmiotu, oprócz realizowania podstawowej funkcji prowadzenia rozmowy z reguły wyposażony jest w wiele
dodatkowych opcji, które są wymieniane przez producentów, m.in.:
l wykorzystują właściwości sieci
(np. SMS lub jego rozwinięcia
takie jak EMS, MMS, cyfrowa
transmisja danych);
l opierają się na dodatkowym
oprogramowaniu, np. budzik,
l
l
l
l
notes, organizator, kalkulator,
i innych aplikacjach mobilnych;
mają dodatkowe, wbudowane
urządzenia, np. dyktafon, radio,
odtwarzacz MP3, GPS, kamera
czy aparat fotograficzny (aparaty pracujące w technologii 3G
oferują możliwość prowadzenia
wideokonferencji);
łączą się z internetem;
mają własne gry (najnowsze modele zamiast klawiszy wykorzystują ruchy użytkownika);
niektóre typy mają możliwość
obsługi dwóch kart SIM jednocześnie.
Jak wykorzystać popularność
telefonów komórkowych
w nauczaniu?
25 lat temu pierwszy telefon
komórkowy trafił do salonów
sprzedaży w Stanach Zjedno12
czonych . Już dawno przestał
być elitarnym narzędziem komunikacji biznesowej, stając
się podstawowym urządzeniem
komunikacji w domach i instytucjach, bez względu na wiek
użytkowników.
Pojawia się zatem pytanie, czy
popularne komórki nie przyczynią
się bardziej do rewolucji w nauczaniu niż komputery. Wyniki badań
rynku telefonii komórkowej pokazują, że użytkownikami komórek
są osoby w coraz młodszym wieku.
Już nie tylko gimnazjaliści i licealiści, ale także młodsze dzieci. Przykładowo w Wielkiej Brytanii 25%
dzieci w wieku 7–10 lat ma już telefon komórkowy. Na rynku amerykańskim Yankee Group szacuje, że
za 3 lata 54% dzieci w wieku 8–12
lat będzie posiadaczami komórek. Według Urzędu Komunikacji
Elektronicznej w 2006 roku nasycenie rynku w Polsce telefonami
komórkowymi w grupie młodzieży
(13–19 lat) wynosiło 91%.
Znaczenie urządzeń mobilnych
w edukacji doceniają Brytyjczycy.
Futurelab od dawna prowadzi badania z wykorzystaniem tych na-
rzędzi w edukacji. Wiele ważnych
i ciekawych wniosków zawiera
raport Handhelds – learning with
handheld technologies, który dostępny jest na stronie internetowej
organizacji (PDF).
Rosnąca popularność telefonów
komórkowych i innych urządzeń
mobilnych sprzyja wykorzystaniu
ich w procesie nauczania. W pewnym sensie są to urządzenia „wszędobylskie”, albowiem towarzyszą
swojemu posiadaczowi, gdziekolwiek się udaje. Uwaga ta dotyczy
zarówno telefonów, jak i palmtopów, ultramobilnych pecetów, konsoli gier i odtwarzaczy MP3. Większość z nich może obsługiwać tego
samego typu programy i zasoby co
komputery stacjonarne czy laptopy
oraz umożliwia dostęp do narzędzi
i treści edukacyjnych dla każdego
etapu nauczania. Urządzenia te
mogą być przenoszone w kieszeni,
a ich baterie starczają na niejeden
dzień pracy.
Wykorzystaniem urządzeń mobilnych do nauczania interesuje się
coraz więcej nauczycieli na świecie.
Dzieje się tak z kilku powodów:
a) urządzenia takie zachęcają do
personalizacji nauczania i większej odpowiedzialności osoby
uczącej się, ich łączna liczba
w użytku przewyższa liczbę
komputerów;
b) są bardziej dostępne dla osób
uczących się niż urządzenia stacjonarne;
c) mogą być wykorzystane jako narzędzia edukacyjne w każdym
miejscu i czasie: w domu, szkole
i w jej szerokim otoczeniu;
d) najbardziej zaawansowane, wielofunkcyjne telefony i palmtopy są w sprzedaży za podobną cenę co najtańsze laptopy.
O wiele szybciej, nawet w ubogich społeczeństwach, rozwija
się rynek telefonii komórkowej,
jednocześnie wprowadzając do
powszechnego użytku niedrogą
i nowoczesną technologię informacyjną.
12 http://www.edunews.pl/narzedzia-i-projekty/mobilna-edukacja/202-urzadzenia-mobilne-w-edukacji
Fizyka w Szkole 1/2013
37
z naszych lekcji
Na stronach internetowych13
można przeczytać kilka uwag dotyczących zastosowania telefonów
komórkowych w edukacji, m.in.:
l „Telefony
komórkowe
bezsprzecznie zdobyły sobie młodych ludzi i znalazły swoje miejsce w ich życiu” – mówi Graham
Brown-Martin, założyciel firmy
Handheld Learning, która promuje zastosowanie urządzeń mobilnych w nauczaniu i uczeniu się.
l „Ciągle
uczymy korzystania
z Worda i PowerPointa w sytuacji, gdy dzieci same wysyłają
swoje filmy nagrane telefonami
do YouTube”.
l „To urządzenia mobilne staną
się wkrótce głównymi narzędziami edukacji, gdy tylko dostosuje
się do nich odpowiednie oprogramowanie edukacyjne i platformy nauczania, które będą
pomagać młodzieży w różnych
sytuacjach” – uważa Mike Short
z O2 Group, przewodniczący
Mobile Data Association.
l Użycie kamery i poczty elektronicznej w telefonie pozwoli
na bieżąco wysyłać raporty ze
szkolnych wycieczek; wyszukiwarki internetowe w telefonie
pozwolą wyszukać każdą informację potrzebną w danej chwili. Kolejny krok – jak zauważa
Short – to tworzenie się społeczności uczących się, którzy za
pośrednictwem komórek będą
mogli pracować nad wspólnymi
projektami w klasie, w domu lub
nawet w podróży. I wcale nie
jest to tylko „wirtualne” uczenie
się i nauczanie pod szyldem Mobile 2.0.
Jak funkcjonuje łączność
telefonem komórkowym?
W telefonie komórkowym wykorzystuje się sygnały cyfrowe.
Sygnał jest wysyłany za pomocą
fali elektromagnetycznej o częstotliwościach mikrofalowych. Aparat użytkownika kontaktuje się ze
stacją bazową. Dane są przesyłane
13 Tamże.
38
Fizyka w Szkole 1/2013
z telefonu do telefonu w postaci
zaszyfrowanej. Głos skierowany do
mikrofonu jest w telefonie próbkowany (pobierany) z wysoką częstotliwością, a następnie poddawany
procesowi przetworzenia na postać
cyfrową. Dalej następuje jego „nałożenie” na częstotliwość nośną
i wysłanie przez stację bazową do
telefonu odbiorcy. W aparacie odbiorcy dochodzi do odtworzenia
informacji.
Jak pomierzyć czas w obserwacji
fizycznej?
A) Ruch ciała po równi pochyłej
Wśród wielu wielkości fizycznych, których pomiaru uczy się
uczeń w szkolnym kształceniu, jest
czas. Jednym z problemów stawianych przed młodym człowiekiem
w trakcie zajęć lekcyjnych jest obserwacja ruchu ciała fizycznego,
najlepiej kulki, po równi pochyłej.
Już samo wykonanie równi o odpowiedniej długości (ponad 1 m)
może sprawić trudności, jeśli nie
mamy zestawu do ćwiczeń z mechaniki. Treść powyższego zdania
jest banalna, ale spróbujmy dokonać tego, używając dostępnego telefonu komórkowego.
W tym celu warto wykonać następujące kroki:
l Zapoznaj się z możliwościami
użycia telefonu komórkowego
jako urządzenia do pomiaru
czasu:
1) dostępny telefon marki Nokia typ 6303 ma w menu zapisane możliwe zastosowanie,
które wykorzystamy w możliwie najszerszym kontekście;
2) w menu po wyborze <organizator> można stosować
<stoper>;
3) po wyborze <stoper> można
zastosować wariant:
a) \pokaż ostatni\ – po uruchomieniu zostają wyświetlone ostatnie dokonane
wyniki – wartości uzyskane po skorzystaniu z opcji
<stoper>,
b) \równolegle\ – możliwość
pomiaru ciągłego upływu
czasu z konkretnym wariantem, po naciśnięciu
[start] – dokonania 20 pomiarów i zapisu tych pomiarów,
c) \pośrednie\ – możliwość
w ciągłym upływie czasu
pomiaru interwału (odstępu) między dwoma kolejnymi punktami pomiarowymi oraz zapisu tych
pomiarów;
4) inne to: zapis pakietu wyników z pomiaru pod określoną
nazwą lub w [opcje] możliwość wyboru [zeruj stoper]
lub [start] do końca liczby
pomiaru, a także [wróć] do
pozycji pomiarowej wykonywanej uprzednio;
5) wybór możliwości [Zapis]
generuje zwiększenie menu
<stoper> o opcje \Pokaż\
czasy lub \Usuń\ czasy.
l Wykonaj równię jako następny
niezbędny krok ku pomiarom.
a) Równia to płaska powierzchnia nachylona do poziomu
pod pewnym kątem. Wyznaczanie parametrów ruchu ciała po tej powierzchni (przede
wszystkim wyznaczenie przyspieszenia) nazywane jest zagadnieniem równi (rys. 1).
b) W XVII wieku Galileusz wykorzystał obserwacje staczających się po równi pochyłej
kul o różnych ciężarach do
sformułowania rewolucyjnego na owe czasy wniosku, że
prędkość spadającego swobodnie ciała nie zależy od
jego masy.
Przeczyło to przyjmowanym
wtedy powszechnie (a spotykanym również obecnie!) poglądom Arystotelesa, że ciało
spada tym prędzej, im jest
cięższe. Na podstawie tych
obserwacji Galileusz sformułował też swą regułę spadku
swobodnego:
z naszych lekcji
wartości liczbowe od kilku
uczniów, a także powtarzane są dla dwóch (lub więcej)
przemieszczających się po
równi ciał (w zależności od
liczby torów na równi).
e) Opracowanie pomiarów także z wykorzystaniem telefonu
komórkowego – kalkulatora.
Rys. 1. Ciało na równi pochyłej, gdzie a to kąt równi. Dokonano rozkładu sił bez tarcia
W kolejnych jednostkach
czasu spadające swobodnie
ciało przebywa drogi proporcjonalne do kolejnych
14
liczb nieparzystych .
c) Do wykonania równi mogą
posłużyć dwa lub najlepiej
trzy kije, ewentualnie trzonki
od miotły (są teraz modele
mioteł z wykręcanym trzonkiem), które należy złożyć
równo jeden obok drugiego
i po usztywnieniu, np. sklejką lub grubszą tekturą, należy skręcić taśmą – chociażby
izolacyjną. Tak otrzymaną
powierzchnię równi, z torem
lub dwoma, do stoczenia się
kulek umieszczamy na podpórce – chociażby odpowiedniej wielkości pudełku.
Po tych czynnościach można
Fot. 1. Arystoteles
przystąpić do pomiarów czasu oraz długości odcinków.
d) Mierzymy czas zarówno
w przepływie ciągłym, jak
i w kolejnych interwałach.
Po wyznaczeniu na skonstruowanej równi odcinków drogi
w taki sposób, by miały się do
siebie jak kolejne liczby nieparzyste – 1:3:5:7 (dobry trzonek miotły ma długość około
170 cm), uczniowie wybierają w telefonie komórkowym
<stoper> oraz opcję \pośrednie\ i po puszczeniu jednej
kulki po równi mierzą czasy
poszczególnych odcinków.
Wyniki notują w zaprojektowanej (razem z nauczycielem)
tabeli i wyciągają wnioski.
Pomiar wykonują w grupie,
czyli możliwe są do uzyskania
Rys. 2. Galileusz
B) Obserwacja wahadła
matematycznego – pomiar
czasu wahań lub okresu drgań
l Wahadło – ciało zawieszone
lub zamocowane ponad swoim
środkiem ciężkości, wykonujące
w pionowej płaszczyźnie drgania pod wpływem siły grawitacji.
l Zjawisko niezależności okresu (T) od amplitudy (A; dla
niewielkich amplitud, gdy wychylenie jest mniejsze niż 10
stopni) nazywamy izochronizmem, od greckich słów izos =
stały, abramos = czas.
l Prawo to odkrył na początku
XVI wieku włoski uczony Galileusz, a według legendy zdarzyło się to w kościele, gdzie obserwował kołysanie się świecznika
i porównywał jego okres ze swo15
im własnym pulsem .
l Właściwość izochronizmu pozwoliła zastosować wahadło
w zegarkach.
l Po zapoznaniu się z budową
najprostszego wahadła matematycznego oraz po wyjaśnieniu,
jak określony jest okres, można
przystąpić do jego pomiaru.
l Wykonanie pomiarów, czyli pomiar czasu zarówno w przepływie ciągłym, jak i w kolejnych
interwałach.
a) Stosując opcję <stoper> pod
nazwą \równolegle\, należy
dokonać pomiaru ciągłego
upływu czasu z wariantem, po
naciśnięciu [start]. Dokonanie 20 pomiarów i zapisanie
tych pomiarów w sytuacji, gdy
14 Przypomnijmy: w matematyce liczby parzyste i liczby nieparzyste to liczby całkowite odpowiednio podzielne lub niepodzielne przez 2. Dla każdego całkowitego k: 2k + 1 jest liczbą nieparzystą zbiór liczb nieparzystych {2k + 1: k ∈ } = {..., –5,
–3, –1, 1, 3, 5, ...}.
15 Prawdopodobnie kazanie było niezbyt ciekawe!
Fizyka w Szkole 1/2013
39
z naszych lekcji
2)
1)
Rys. 3. Wahadło matematyczne składające się z kulki o masie m zaczepionej np. na nitce o długości l. W pozycji 1 – stan wyjściowy, pozycja 2 – stan po wyprowadzeniu ze
stanu równowagi*. Kąt wychylenia a wahadła (kąt między wychylonym wahadłem a wahadłem w położeniu równowagi)
* http://fizyka.biz/424_dynamika.html
po wyprowadzeniu ze stanu
równowagi ciało wykonuje
wahnięcie i powraca do sytuacji początkowej.
b) Następnie inna grupa uczniów
wybiera opcję \pośrednie\
i tym samym w ciągłym upływie czasu realizuje pomiar interwałów (odstępów) między
dwoma kolejnymi punktami
pomiarowymi, wynikającymi
z upływu czasu nazwanego
okresem, oraz zapisuje odczytane wartości pomiarów.
l Jeśli w sytuacji a) uczniowie po
odczytaniu wartości mogą dostrzec upływ czasu po kolejnych
okresach, to w sytuacji realizującej pomiar zgodnie z opisem
w pkt b) mogą dostrzec wartości
czasu poszczególnych okresów
– w tym telefonie komórkowym
jest to możliwe dla wartości 19.
l Po
zaprojektowaniu
przez
uczniów wraz z nauczycielem tabelki należy ją wypełnić, a odpowiednie obliczenia umożliwiają
wyciągnięcie wniosków.
Rys. 4. Zależność okresu drgań wahadła T od kąta wychylenia q
Źródło: http://pl.wikipedia.org/wiki/Wahadło
Pokazane tu doświadczenia są
dość banalne i znane każdemu
fizykowi, w tym nauczycielowi.
Jednak na ich podstawie widać
użyteczność wspomnianego urządzenia. W drugiej części artykułu
w wersji cyfrowej!
zaprezentowane będą bardziej wyrafinowane eksperymenty.
Nasze czasopismo można kupić i zaprenumerować w wersji cyfrowej,
w postaci pliku PDF, na następujących platformach:
O www.raabe.com.pl
O www.zixo.pl
O www.kiosk24.pl
O www.publio.pl
Wydania archiwalne można zamówić poprzez naszą stronę internetową:
www.edupress.pl
40
Fizyka w Szkole 1/2013
dr Kazimierz Mikulski
Maksymilianowo
felietony
Społeczne koszty
kształcenia
Jerzy Kuczyński
W
drugim numerze „Fizyki
w Szkole” (2/2012) pojawił się
artykuł panów Edwarda Pietrasa
i Edwarda Rydygiera pt. Społeczne koszty reformy systemu edukacji. Zawarte w tym tekście tezy
nie budzą wątpliwości, jednak…
prowokują do dwu uwag. Po pierwsze, tekst w bardzo nikłym stopniu
wskazuje tytułowe koszty społeczne. Po drugie, autorzy nawet nie
próbują wskazać przyczyn drastycznego obniżenia jakości nauczania,
zastępując analizę logiczną powołaniem się na liczne materiały źródłowe i wypowiedzi osób zainteresowanych edukacją. Wydaje się, że
warto ten brak uzupełnić, bo dzięki
temu z jednej strony możemy zrozumieć, dlaczego jest tak, jak to zostało opisane, a z drugiej – i chyba
zdecydowanie ważniejszej – można, znając przyczyny choroby, spróbować obmyślić strategię leczenia.
Jednocześnie wydaje mi się, że oba
braki nie powstały przypadkowo
i są ze sobą blisko związane.
Na początek koszty społeczne
edukacji. Rzecz oczywista, więc nie
wymaga zbyt szerokiego komentarza. Koszty społeczne edukacji to
przede wszystkim wysiłek uczniów,
głównie intelektualny, oraz rodziców, już w dużej mierze, ale nie tylko, finansowy. W dalszej kolejności
można wymienić jeszcze wiele innych składników zarówno drobnych
(jak konieczność rezygnacji z pewnych przyjemności dla dobra kształ-
cenia), jak i bardzo drastycznych,
choć na szczęście raczej rzadkich
(typu depresja, a nawet samobójstwa pod wpływem niepowodzeń
szkolnych). W sumie jest oczywiste,
że nauka w sensie „uczenie się” jest
ciężką pracą, za którą jest odpowiedni dyplom lub świadectwo. To
z punktu widzenia uczącego się.
Można spojrzeć i z drugiej strony
– koszty społeczne edukacji to również wysiłek społeczeństwa, głównie
państwa, włożony w organizację i finansowanie systemu edukacji.
Jeżeli powiedzieliśmy, co za swój
wysiłek ma uczeń (dyplom), to trzeba powiedzieć, co za swój wkład
ma państwo. A ma sporo (i o tym
przede wszystkim, choć tak jakby
trochę eufemistycznie, opowiadają
panowie Pietras i Rydygier). Przede
wszystkim wykwalifikowanych fachowców realizujących funkcje
państwa, a więc organizujących
działalność (urzędnicy), dbających
o bezpieczeństwo i przetrwanie
(wojsko, policja, sądownictwo),
a w końcu produkujących wszyst-
kie środki niezbędne do egzystencji zarówno państwa, jak i całego
społeczeństwa. Jako fizycy jesteśmy
(moralnie) zobowiązani do oceny
ilościowej każdego problemu.
I trzeba jasno powiedzieć, że tu
ocena jest łatwa. Państwo z dobrej
edukacji ma znacznie więcej niż
sam uczący się. Bez wykwalifikowanych pracowników państwo nie
jest w stanie egzystować, a jakość
jego egzystencji, czyli to, czy jest
światową potęgą, czy humanitarnym kłopotem dla sąsiadów, zależy
praktycznie wyłącznie od sprawności organów państwowych oraz
potencjału intelektualnego jego
obywateli. Rola „bogactw naturalnych” dość często demonizowana jest, w okresach dłuższych
od kilkudziesięciu lat, niemal bez
znaczenia. Po prostu przy braku
własnej fachowej kadry istniejące bogactwa w najlepszym razie
szybko są przechwytywane przez
obcych (i przez nich wykorzystywane), w najgorszym przypadku
1
zostają po prostu niezauważone .
1 Istnieje jeszcze gorsze rozwiązanie – bogactwa zostają wykorzystane przez obcych ze szkodą dla lokalnych interesów. Przykładem są złoża ropy w niektórych państwach afrykańskich. Ropa przynosi korzyść obcym, a na miejscu zostaje zniszczona przyroda, uniemożliwiając działanie miejscowego rolnictwa.
Fizyka w Szkole 1/2013
41
felietony
Podsumowując,
wykwalifikowany lekarz, inżynier lub urzędnik przynosi korzyści całemu
społeczeństwu, zadowalając się
umiarkowaną korzyścią w formie
zarobku i prestiżu związanego
z zajmowanym stanowiskiem. Korzyść ta jest na dodatek dosyć iluzoryczna. Często nawet najwyżej
wykształceni członkowie społeczeństwa uzyskują bardzo umiarkowane dochody połączone z równie umiarkowanym prestiżem.
Z powyższego wynika jednoznacznie, że edukacja jest wspólną
inwestycją państwa i uczącego się,
przy czym ten ostatni jest zdecydowanie słabiej gratyfikowaną stroną
tej „umowy społecznej”, a hasła
typu „uczymy się dla siebie” są
typowym chwytem reklamowym
mającym na celu zachęcenie do
zwiększonego wysiłku. Jeszcze
lepszym, a równie często używanym chwytem marketingowym jest
przedstawianie szkolnictwa jako
rodzaju świadczenia państwa na
rzecz obywatela.
Wynika z tego coś jeszcze. Otóż
państwa słabe charakteryzują się
słabym szkolnictwem. I rzeczywiście nietrudno to uzasadnić,
przyglądając się historii. Państwa
o sprawnej administracji i mało
podległe wpływom organizują
dobre jakościowo szkolnictwo.
W szczególności państwa demokratyczne, silnie zależne od swoich
obywateli, charakteryzują się zwykle bardzo marnym szkolnictwem.
Z kolei państwa autorytarne
(i silne organizacyjnie, takie jak
Prusy, których potęgę, jak twierdzą niektórzy historycy, stworzył
wiejski nauczyciel i kapral, też występujący w znacznej mierze w roli
nauczyciela) zwykle tworzą bardzo
sprawne systemy kształcenia, czego najbliższym nam przykładem
była Polska sprzed 30 lat.
Warto zauważyć, że im słabszy był
komunizm, tym gorsze było szkolnictwo! Po prostu słabe państwa,
zwłaszcza demokratyczne, nie są
w stanie zmusić swoich obywateli do
zbyt dużego wysiłku. Każda próba
zwiększenia wysiłku powoduje opór,
w mediach pojawiają się opowieści o przeładowanych programach,
zbędnej, „teoretycznej” wiedzy
i braku praktycznego zastosowania
nauczanych treści. Trzeba powiedzieć, że takie zachowanie członków
społeczeństwa jest uzasadnione.
Wysiłek oraz pieniądze (nauka wymaga sporych nakładów)
włożone w edukację zwracają się
w umiarkowanym stopniu, a prawdopodobieństwo „wtopienia” jest
spore. Nawet tak „pewne” finansowo zawody jak lekarz, prawnik czy
bankowiec są obarczone sporym
ryzykiem niepowodzenia, a z zasady każdy zawód ma swoje ukryte
wady powodujące, że nie jest tak
różowo, jak to się zdaje ludziom
2
spoza branży .
Dlatego rozsądne jest przeciwstawianie się zwiększeniu wymagań edukacyjnych i jednoczesny
stały nacisk na ich obniżenie. To
oczywiście z punktu widzenia uczącego się, bo z punktu widzenia odbiorcy usług jest dokładnie na odwrót. Jednak jak doskonale wiemy
z elementarnej psychologii, strata
jest bardziej bolesna niż przyjemność z zysku i dlatego opór wobec
zwiększania wymagań edukacyjnych zdecydowanie przeważa nad
chęcią kształcenia (zarówno „się”,
jak i „innych”) w przewidywaniu
zysków. Jak jest w praktyce, możemy zobaczyć, przeprowadzając
„eksperyment myślowy”. Powiedzmy, że zwiększamy wymagania maturalne do poziomu z lat 70.
Oczywiście
maturę
oblewa
przeważająca większość i… protesty powodują odwołanie ministra. A gdyby premier nie chciał
go wystarczająco szybko odwołać,
to upada cały rząd. Znana sprzed
kilku lat amnestia maturalna to nie
przypadek, ale normalna reakcja
rozsądnego polityka. Dlatego naturalną tendencją jest konsekwentne
obniżanie jakości edukacji. Ilustruje to ostatnia reforma edukacyjna.
W gruncie rzeczy sprowadza się
ona do tego, by całkowicie zrezygnować z kształcenia w liceach,
zastępując to przygotowaniem do
matury. I oczywiście nie wzbudza
3
to protestów , bo jest całkowicie
zgodne z interesem uczących się
(mniej nauki) i polityków (mniej
zadrażnień, czyli większa szansa
na reelekcję). I tak dochodzimy do
podstawowego wniosku.
Dobrym kształceniem zainteresowani jesteśmy wszyscy, pod
warunkiem że dotyczy to innych!
A ponieważ bliższa ciału koszula,
każda realna próba podwyższenia wymagań powoduje gwałtowne protesty. W demokratycznym
2 Doskonałą ilustracją tego zjawiska jest to, co możemy przeczytać o naszym zawodzie na forach internetowych.
3 Z wyjątkiem problemu historii. Z wielu względów jest to rzecz bez znaczenia.
42
Fizyka w Szkole 1/2013
felietony
państwie żaden rozsądny polityk
do tego ręki nie przyłoży. I to
ostatnie jest mechanizmem uniemożliwiającym państwu dbałość
o wykształcenie. Jeżeli chcemy, by
poziom kształcenia w Polsce nie
spadał, musimy przemyśleć takie
propozycje reform, które tych podstawowych interesów nie naruszą,
a w każdym razie nie naruszą ich
zbyt drastycznie. I nietrudno takie
propozycje stworzyć.
Przede wszystkim powinniśmy
zdać sobie sprawę z tego, że dobrze
wykształconych nie trzeba wielu.
W gruncie rzeczy 2–3 procent dobrze wykształconych to zupełnie
wystarczający odsetek. Dodatkowo
kilka procent populacji z różnych,
nie zawsze racjonalnych powodów
ma ochotę się uczyć. Gdyby więc
dać im taką możliwość, to chętnych
do skorzystania z niej nie powinno
zabraknąć.
Oczywiście wszystko na poziomie kilku procent populacji, ale to
powinno wystarczyć. Na pierwszy
rzut oka wydaje się, że znaleźliśmy rozwiązanie problemu. Niestety tylko na pierwszy rzut oka.
Doświadczenie życiowe pokazuje,
że tego typu propozycja powoduje
wręcz huraganowy opór wszystkich
środowisk. Chwila refleksji i rozu4
miemy, że opór jest uzasadniony .
Gdyby pojawiła się stosunkowo
liczna grupa lepiej niż przeciętnie
wykształconych, to pojawiłaby się
i tendencja (początkowo dosyć
wątła, ale prawdopodobnie przybierająca na sile) do obsadzania
kluczowych stanowisk przez tak
właśnie wykształconych ludzi.
Oczywiście ze szkodą dla tych pozostałych. Oznaczałoby to z jednej
strony ograniczenie władzy (brak
możliwości obsadzania pewnych
stanowisk przez „swoich”), a z drugiej ograniczenie własnych możliwości (brak dostępu do najbardziej
pożądanych stanowisk).
Dlatego koncepcja szczególnie
dobrego kształcenia budzi żywiołowy i powszechny opór. I jeszcze raz
należy podkreślić – opór uzasadniony (choć z zasady uzasadniany
nieco mniej racjonalnie). Aby go
ograniczyć, trzeba rzecz przedstawić tak, by opór był możliwie
mały. Istnieją ku temu możliwości.
Przede wszystkim należy uczciwie
przedstawić proces kształcenia
jako ciężką, niezbyt opłacalną i pożyteczną, głównie dla osób drugich
i trzecich (pracodawcy i ich klienci), pracę. Nie należy też ukrywać
ryzyka związanego z kształceniem
– praca pracą, zdolności zdolnościami, a byle przypadek może spowodować, że z kształcenia wyjdzie
niewiele.
Równolegle należałoby propagować zalety życia przy umiarkowanym wkładzie w edukację, czyli wskazywanie, że hydraulik czy
kelnerka to bardzo pożyteczne,
obarczone mniejszym ryzykiem
i w końcu dosyć intratne zawody.
W czasach PRL taka właśnie propaganda była i dzięki temu znacznie łagodzono napięcia społeczne!
Nie sposób nie zauważyć, że przy
znacznie efektywniejszym kształceniu, ale nie tańszym. Kształcenie
w szkołach zawodowych było drogie, a w tej chwili byłoby jeszcze
droższe. Koszty praktyk, o czym
niektórzy chcą zapomnieć, są niezmiernie wysokie, a wbrew pozorom pracodawcy wcale nie kwapią
się do zatrudniania młodzieży –
okazuje się, że traktując obowiązek
uczenia zawodu i dbania o ucznia
poważnie, nawet przy refundacji
„płacy” (tak to było za komuny!)
tańszy jest etatowy pracownik.
Z kolei kształcenie na bardzo
wysokim poziomie jest łatwe, przyjemne i bardzo tanie. Bardzo skąpiąc, wystarczy bowiem coś zadać,
a następnie sprawdzić, czy zostało
to opanowane, dodatkowo pobierając opłatę egzaminacyjną. Inaczej
jest z uczeniem niechętnych kształceniu, ponieważ ono kosztuje, męczy i na dodatek wyniki są co najwyżej umiarkowane. Niemniej jednak
wybór wydaje się jednoznacznie
określony – albo finansować kosztowne kształcenie zawodowe, albo
zapomnieć o kształceniu za grosze
na wysokim poziomie!
PS Rzeczą, która zirytowała
mnie w tekście panów Pietrasa
i Rydygiera, jest użycie terminu
relatywizm. Rzeczywiście znaczna
część humanistów używa tego słowa
w znaczeniu „bezwartościowość”
czy „brak znaczenia”, czyli tak,
jak użyli go autorzy. Jednak nawet
elementarnie wykształcony fizyk
powinien wiedzieć, że względny,
czyli relatywny, oznacza „zależny
od pewnych operacji”, czyli cechowań. A każde nowe cechowanie
oznacza nowe prawo zachowania!
Inaczej mówiąc, znalezienie jakiejś
względności oznacza znalezienie
głębszego, bardziej podstawowego
poziomu rzeczywistości i z zasady ogromny postęp w rozumieniu
świata. Koniec końców współczesna fizyka zaczęła się od odkrycia
względności ruchu. I z tego powodu
przynajmniej my, fizycy, powinniśmy doceniać znaczenie względności, zwracać uwagę na to, że względność to nie tylko „uzmiennienie”
tego, co wydawało się stałe, ale
również znalezienie bardziej podstawowych niezmienników.
4 Najlepiej to zobaczyć we własnym środowisku. W marcu byłem na zebraniu Komisji do Oceny Podręczników Szkolnych
PAU. Referowano m.in. podręcznik do nauki łaciny. Niestety autora recenzji nie było. Jako nauczyciel (wyjątek, większość recenzentów to pracownicy naukowi, w większości profesorowie), i to z dosyć daleka, bo z Zielonej Góry (PAU jest w Krakowie),
nie dostał pozwolenia na przyjazd od swojego dyrektora. Gdy wyjaśniano, dlaczego recenzja jest odczytywana, a nie wygłaszana,
jeden z obecnych profesorów (akurat polonista, ktoś, kto próbowałby tego typu motywacje przypisać tylko jednemu rodzajowi
wykształcenia, nie miałby racji) zauważył: „To standard, dyrektorzy szkół obawiają się sukcesów naukowych swoich podwładnych
i znam wiele przypadków, że nauczyciel, który np. postanowił robić doktorat, natychmiast miał w szkole kłopoty”. Istotnie tak
właśnie bywa. I to nie „przypadkowo” czy „incydentalnie”, ale systemowo. Jeżeli nie wierzymy, to… przypomnijmy sobie, jak
zniknął z taryfikatora płac stopień naukowy doktor.
Fizyka w Szkole 1/2013
43
olimpiady, konkursy, zadania
Przekraczając fizyczne
możliwości
Robert Wołkiewicz
auka to przede wszystkim wyzwanie. Wyzwanie, przed którym niejednokrotnie stają najlepsi
badacze z całego świata. Jak zrobić
eksperyment? Co da się zaobserwować? Dlaczego wyszło co innego? Jak to opisać? Codziennie
naukowcy z całego świata stają
przed takimi dylematami. Chcesz
poczuć się jak jeden z nich? Pokaż,
że potrafisz przekraczać nie tylko
swoje fizyczne możliwości, lecz
także fizyczne bariery. Jako uczeń
możesz wziąć udział w konkursie
i zmierzyć się z wybitnymi polskimi
naukowcami. Nic prostszego – weź
udział w VIII edycji konkursu Fizyczne Ścieżki.
nych uzupełnieniach prace przechodzą ocenę merytoryczną eliminującą plagiaty. Recenzja naukowa
dokonywana przez pracowników
naukowych głównych instytucji badawczych to trzeci etap konkursu.
Każda praca oceniana jest przynajmniej przez dwóch recenzentów,
tak jak ma to miejsce w przypadku prac magisterskich czy doktorskich. To właśnie podczas tego etapu wyłaniani są finaliści. Czeka ich
najbardziej emocjonujący, ostatni
szczebel organizowany 13 kwietnia
w Instytucie Fizyki PAN w Warszawie. To prawdziwa arena zmagań.
To właśnie tu autorzy najlepszych
prac przedstawią swoje osiągnięcia
i zmierzą się z komisją naukową
– w trakcie dyskusji trzeba będzie
obronić przedstawione tezy.
Prawdziwe wyzwanie
Samodzielna twórcza praca daje
nie lada satysfakcję. Nie musisz
korzystać z podręcznikowych rozwiązań, zaproponuj własny sposób
podejścia do fizycznego zagadnienia. Spośród trzech kategorii
wybierz tę najbardziej odpowiadającą twoim zainteresowaniom.
Pokaż związki fizyki z rozwojem,
cywilizacją, filozofią, sztuką, historią czy nawet kulturą! Weź długopis i pisz. Esej to najodpowiedniejsza forma do zmagań w konkursie
Fizyczne Ścieżki. A może chcesz
napisać prawdziwą pracę naukową? Druga kategoria daje ci taką
możliwość. Praca może mieć charakter doświadczalny, teoretyczny,
a nawet obliczeniowy. To właśnie
tu jest miejsce na opis konstrukcji
aparatury badawczej – nikt nie wie,
czy pokonując fizyczne bariery, nie
wymyślisz czegoś, co zmieni cały
Dlaczego warto?
„Wszyscy dotychczasowi uczestnicy konkursu podkreślają, że warto wziąć w nim udział. Nie dla nagród, ale dla niesamowitych przeżyć
i wkroczenia w szeroki świat nauki”
– mówi prof. dr hab. Ludwik Dobrzyński, przewodniczący komitetu
organizacyjnego. „Przygotowując
prace, pokonują własne bariery,
rozwijają kreatywność i odkrywają,
że nauka dla młodego człowieka
kryje niesamowite tajemnice. Ich
poznawanie jest nie lada wyzwaniem, o którym z zapartym tchem
opowiadają nam podczas finałów.
Cieszymy się, że nasze osiągnięcia
będą miały tak wspaniałych kontynuatorów” – dodaje.
Te same wartości podkreśla
prof. dr hab. Andrzej Wiśniewski z Instytutu Fizyki PAN: „Wyszliśmy naprzeciw oczekiwaniom
uczniów i nauczycieli. Organizując
N
44
Fizyka w Szkole 1/2013
świat. Masz w planie zademonstrowanie pokazu? Weź udział w trzeciej kategorii – pokaz zjawiska fizycznego. Pokaż i wyjaśnij, na czym
polega obserwacja.
Zrobię pokaz w Centrum Nauki
Kopernik
Mając do wyboru trzy kategorie,
pokaż nam swoją samodzielność
i wykaż się inicjatywą. Komisja
stawia na indywidualne podejście
do problemu. Każda z nadesłanych prac przejdzie cztery etapy.
W pierwszym zgłoszenia przechodzą kwalifikację formalną, podczas
której sprawdzane jest, czy wszystkie dokumenty zostały dostarczone w odpowiedniej formie i czy
prace są kompletne. Po ewentual-
olimpiady, konkursy, zadania
Fizyczne Ścieżki, daliśmy im możliwość własnych wyborów, zgłębiania zakamarków wiedzy i konfrontacji z nami. Niejednokrotnie
jesteśmy pod dużym wrażeniem
przygotowania startujących w konkursie osób. Podczas spotkań
z nimi w ostatnim etapie nieraz
czułem się jak na obronie pracy naukowej, np. doktorskich rozpraw
moich podopiecznych”.
(Bez)cenne nagrody
Choć udział w konkursie, zmagania z koleżankami i kolegami
z całej Polski są dość dużym przeżyciem, to gratyfikacją za podjęty
trud są cenne nagrody. Już tradycją konkursu Fizyczne Ścieżki stała się nagroda w postaci wyjazdu
naukowego do Zjednoczonego Instytutu Badań Jądrowych w Dubnej. W ubiegłym roku Aleksandra
Świercz i Magdalena Kaja z I LO
w Wieluniu, autorki pracy naukowej Promieniotwórczość wokół nas.
Ochrona przed promieniowaniem,
spędziły tam dwa tygodnie, prowadząc liczne eksperymenty naukowe. W tym roku do wygrania jest
„wejściówka” na Wydział Fizyki,
Astronomii i Informatyki Uniwersytetu Jagiellońskiego. Indeks
będzie czekał na zwycięzcę. Dla
wszystkich będą upominki w postaci książek popularnonaukowych
oraz gier planszowych.
Szczególną nagrodą dla finalistów pokazów zjawisk fizycznych
jest możliwość zaprezentowania
ich szerokiej publiczności w Cen-
trum Nauki Kopernik już następnego dnia po seminarium finałowym.
W nadchodzącym roku pokazy
wybranych finalistów będą też mogły być zademonstrowane podczas
Pikniku Naukowego w Warszawie. Udział w konkursie Fizyczne
Ścieżki jest więc dla uczniów wyzwaniem, przygodą intelektualną,
ale też radością tworzenia.
Jak się zgłosić?
Prace należy zgłaszać do 31
stycznia 2013 roku. Można je przesłać w wersji elektronicznej, wysyłając e-mailem na adres: deis@
ncbj.gov.pl, lub w tradycyjnej formie do Działu Edukacji i Szkoleń
Narodowego Centrum Badań Jądrowych (ul. A. Sołtana 7, 05-400
Otwock).
Potem następuje weryfikacja
formalna i merytoryczna pracy
oraz jej naukowa recenzja. Najlepsi uczestnicy zostaną zaproszeni na
finał, który w tym roku odbędzie
się 13 kwietnia 2013 roku w Instytucie Fizyki PAN. Następnego dnia
wszyscy razem – uczestnicy i jurorzy – udadzą się do Centrum Nauki Kopernik, by zwiedzić obiekt,
ale także na specjalnej sesji przeprowadzić swoje najpiękniejsze
pokazy.
Szczegółowy regulamin konkursu znajduje się na stronie:
www.fizycznesciezki.pl.
Rekordowy ubiegły rok
Z roku na rok konkurencja się
zaostrza. Coraz więcej młodych lu-
dzi chce wziąć udział w naukowych
zmaganiach. W ubiegłym roku
do konkursu zgłoszono 96 prac
z całej Polski. Wśród wygranych
znaleźli się: Arkadiusz Kujawa,
Anna Rakowska, Przemysław Wiśniewski, którzy zaprezentowali
pracę naukową Toczenie się z poślizgiem, Remigiusz Dudkiewicz,
Bartłomiej Szamborski, Marcelina
Lewandowska, którzy w pokazie
zjawiska fizycznego pt. Akustyczna
fala stojąca w gazie i szklanej płytce uzyskali najwyższe oceny, oraz
Paulina Lewandowska z esejem pt.
W szklance herbaty.
To już ósmy raz
Konkurs Fizyczne Ścieżki to cykliczne zmagania uczniowskie organizowane od 2005 roku przez Narodowe Centrum Badań Jądrowych
oraz Instytut Fizyki Polskiej Akademii Nauk. Bieżącą, ósmą edycję
swoim patronem objęła prof. dr hab.
Barbara Kudrycka, minister nauki
i szkolnictwa wyższego, oraz Centrum Nauki Kopernik. Naukowe
przedsięwzięcie swoim patronatem
medialnym objęła Polska Agencja
Prasowa (serwis „Nauka w Polsce”),
redakcja „Młodego Technika” oraz
magazyn „Fizyka w Szkole”. Inicjatywie udzielili wsparcia: Wydawnictwo Nowa Era, Zjednoczony Instytut Badań Jądrowych w Dubnej
koło Moskwy oraz Wydział Fizyki,
Astronomii i Informatyki Uniwersytetu Jagiellońskiego.
Robert Wołkiewicz
Narodowe Centrum Badań Jądrowych
Fizyka w Szkole 1/2013
45
olimpiady, konkursy, zadania
Zadania z astronomii
dla uczniów szkół ponadgimnazjalnych:
Układ Słoneczny, cz. II
Piotr Gronkowski, Marcin Wesołowski
Zadanie 1.
Obliczyć, ile czasu t opadałby
na Słońce początkowo nieruchomy meteoroid z odległości równej
promieniowi najdalszej planety
Układu Słonecznego – Neptuna.
Promień orbity Neptuna wynosi
w przybliżeniu około aN = 30 AU
(AU – jednostka astronomiczna).
ciało ze Słońcem. W granicznym
przypadku, gdy v = 0, elipsa przekształca się w odcinek leżący na
prostej AS. Zgodnie z trzecim prawem Keplera możemy napisać:
a3
= const,
(1.3)
T2
gdzie T oznacza okres obiegu po
elipsie. Z drugiej strony mamy:
,
(1.4)
w tym równaniu a0 = 1 AU, T0 =
1 rok są odpowiednio promieniem
orbity Ziemi i jej okresem w ruchu
wokół Słońca. Z powyższego równania łatwo możemy obliczyć T:
(1.5)
Rys. 1. Spadanie na Słońce jako graniczny przypadek
ruchu po elipsie. Początkowo rozważany meteoroid
znajduje się w punkcie A, punkt S oznacza centrum
Układu Słonecznego – Słońce
Rozwiązanie:
Spadanie meteorytu na Słońce
można uważać za ruch po bardzo
wydłużonej elipsie, której dłuższa oś
2a równa jest w przybliżeniu promieniowi orbity Neptuna. Mamy więc:
2a = aN
(1.1)
lub
a=
aN
.
2
(1.2)
Po takiej elipsie wokół Słońca
poruszałoby się ciało oddalone od
centrum Układu Słonecznego o a,
jeśli nadano by mu pewną niewielką prędkość v w kierunku prostopadłym do prostej AS łączącej to
46
Fizyka w Szkole 1/2013
możemy jego moc promieniowania
P0 wyrazić jako:
2
4
P0 = 4 · p · R · s · T ,
(2.1)
gdzie R jest jego promieniem, T
– temperaturą powierzchni, a s –
stałą Stefana-Boltzmanna.
Jeśli pewna część powierzchni
Słońca o wielkości S zwiększy temperaturę do T + ∆T, a druga część
o takiej samej powierzchni oziębi
się do T – ∆T, to wtedy całkowitą
moc promieniowania słonecznego
możemy wyrazić następująco:
2
4
P1 = (4pR – 2S) · sT +
(2.2)
4
4
+ Ss(T + ∆T) + Ss(T – ∆T) .
Zmiana mocy promieniowania
∆P jest więc równa:
∆P = P1 – P0 =
2
4
= (4pR – 2S) · sT +
4
4
+ Ss(T + ∆T) + Ss(T – ∆T) +
2
4
– 4pR sT
lub
Zatem ruch z punktu A do
punktu S trwałby t = T/2 ≈ 29 lat.
4
∆P = Ss[(T + ∆T) +
4
4
+ (T – ∆T) – 2T .
Odpowiedź: Na podstawie przeprowadzonej analizy należy wnioskować, że czas spadku tego ciała
na Słońce wynosiłby około 29 lat.
Przekształcając prawą stronę
równania (2.3), otrzymujemy:
Zadanie 2.
Załóżmy, że nagle pewna niewielka część powierzchni Słońca
nieco się ogrzała, a druga taka sama
co do wielkości powierzchnia o tyle
samo się ochłodziła. Jak zmieni się
całkowita moc promieniowania
Słońca: wzrośnie czy zmaleje?
Rozwiązanie:
Zakładając, że Słońce promieniuje jako ciało doskonale czarne,
(2.3)
4
3
2
2
∆P = Ss(T + 4T ∆T + 6T ∆T +
3
4
4
3
+ 4T∆T + ∆T + T – 4T ∆T +
2
2
3
4
4
+ 6T ∆T – 4T∆T + ∆T – 2T ).
Dokonując redukcji wyrazów
podobnych w powyższym równaniu, zmianę mocy promieniowania
możemy zapisać jako:
2
2
2
∆P = 2Ss∆T (6T + ∆T ) > 0. (2.4)
Odpowiedź: Na podstawie
przeprowadzonych rachunków możemy stwierdzić, że całkowita moc
promieniowania Słońca wzrośnie.
olimpiady, konkursy, zadania
Zadanie 3.
Obliczyć całkowitą zmianę długości ∆λc linii λ0 = 0,5 µm podczas
jej obserwacji na przeciwległych
brzegach tarczy słonecznej na równiku słonecznym. Znamy równikowy okres rotacji Słońca T = 25 dni,
6
jego promień R = 696·10 m oraz
8
prędkość światła c = 3·10 m/s.
.
Rys. 2. Ilustracja efektu Dopplera dla brzegów tarczy
Słońca. Rysunek przedstawia widok „z góry” wzajemnego położenia Słońca i obserwatora na Ziemi
Wykorzystując zależność (3.1),
łączną zmianę długości możemy
zapisać jako:
,
Fot. 1. Zdjęcie Słońca; widoczne są liczne elementy
struktury powierzchni naszej dziennej gwiazdy: protuberancje i pochodnie, fot. NASA
Rozwiązanie:
Jeśli źródło światła porusza się
względem obserwatora ze względną prędkością radialną vr (vr << c,
c – prędkość światła), to w jego widmie obserwujemy przesunięcie ∆λ
linii ∆λ0, które dane jest następującym wzorem:
,
(3.1)
przy czym jeśli źródło zbliża się do
nas, to ∆λ oznacza skrócenie długości fali. Gdy źródło się oddala,
to ∆λ oznacza wydłużenie długości
fali.
Gdy człowiek obserwuje tarczę
słoneczną (rys. 2) na jej brzegach,
to wtedy punkt A zbliża się do obserwatora, a punkt B oddala się od
niego. Łączna zmiana długości fali
∆λc pomiędzy źródłem B i A jest
więc równa:
∆λc = (λ0 + ∆λ) – (λ0 – ∆λ). (3.2)
Po redukcji wyrazów podobnych
równanie (3.2) przyjmuje następującą postać:
∆λc = 2∆λ.
(3.3)
(3.4)
gdzie vr jest równe prędkości ruchu
obrotowego Słońca na równiku,
którą określa formuła:
.
Znając stałą słoneczną dla Ziemi
3
2
S = 1, 36·10 W/m , odległość Ziemi
11
od Słońca r0 = 1 AU = 1,496·10 m
oraz przyjmując, że masa protonu
mp = 1,007276 u, masa jądra helu
mHe = 4,001509 u, masa pozytonu
me = 0,000549 u (u – jednostka
masy atomowej), i wiedząc, że jednostce masy atomowej 1 u odpowiada energia 931,5 MeV, obliczyć
ilość jąder helu powstających we
wnętrzu Słońca w ciągu 1 sekundy.
Proces produkcji helu w cyklu
p-p może być zapisany sumarycznie w następujący sposób:
,
oznacza pozyton, v –
gdzie
neutrino, g – kwant gamma.
(3.5)
Wykorzystując wzór na prędkość rotacji spinowej Słońca, równanie (3.4) przyjmuje ostateczną
formę:
.
(3.6)
Podstawiając do równania (3.6)
odpowiednie wartości liczbowe,
otrzymujemy:
(3.7)
Odpowiedź: Całkowita zmiana długości fali jest równa ∆λc =
–12
= 6,75·10 m.
Zadanie 4.
Źródłem energii Słońca są reakcje termojądrowe, których istota polega na syntezie jąder helu
z jąder wodoru. Jest to cykl protonowo-protonowy (cykl p-p) składający się z następujących reakcji
jądrowych:
,
,
Rys. 3. Fragment wewnętrznej struktury Słońca – schemat
Rozwiązanie:
Obliczymy różnicę pomiędzy
masą substratów a masą powstałych w wyniku tych reakcji produktów:
∆m = 4mp – (ma + 2me+) =
=4 · 1,007276u +
(4.1)
– (4,001509u + 2 · 0,000549)=
= 0,026497u.
Tak więc w wyniku powstawania
jednego jądra helu wydziela się
energia:
E0 = 0,026497u · 931,5 MeV/u =
= 24,682 MeV =
(4.2)
–13
–12
=24,682 · 1,6·10 J = 3,949·10 J.
Jeśli w ciągu 1 sekundy powstanie Na jąder helu (cząstek a), to
całkowita energia L produkowana
Fizyka w Szkole 1/2013
47
olimpiady, konkursy, zadania
w ciągu 1 sekundy w wyniku cyklu
p-p jest równa:
L = Na · E0.
.
(4.4)
(4.6)
(4.3)
Inaczej mówiąc, jest to moc reakcji termojądrowych zachodzących we wnętrzu Słońca. Z drugiej
strony przy założeniu równowagi
energetycznej, w jakiej znajduje się
Słońce, musi być ona równa mocy
promieniowania
elektromagnetycznego Słońca L, którą obliczymy w oparciu o znajomość stałej
słonecznej S określonej wzorem:
jąder/s.
Przekształcając powyższą zależność i podstawiając wartości liczbowe, otrzymujemy:
Odpowiedź: Poszukiwane tempo produkcji helu w wyniku cyklu
p-p we wnętrzu Słońca wynosi
37
9,681·10 jąder/s.
(4.5)
Wobec tego tempo produkcji
helu we wnętrzu Słońca wynosi:
W następnych numerach:
v Aktywność komet – wybrane zagadnienia (Piotr Gronkowski) Komety stanowią bardzo specyficzną grupę drobnych ciał kosmicznych
krążących w Układzie Słonecznym po orbitach mających w przybliżeniu kształt krzywych stożkowych (elips, parabol lub hiperbol), w których ognisku znajduje się Słońce. Najważniejszą składową komety jest
jej jądro – trwała struktura będąca nośnikiem masy kometarnej. Jądro
kometarne przyjmuje najczęściej kształt nieregularnej bryły podobnej
nieco do elipsoidy, cygara lub orzeszka ziemnego, o wymiarach średnio
rzędu kilku kilometrów.
48
Fizyka w Szkole 1/2013
dr hab. Piotr Gronkowski
profesor Uniwersytetu Rzeszowskiego
mgr Marcin Wesołowski
olimpiady, konkursy, zadania
Turniej zadaniowy
Zostań Mistrzem
Seria 103
Do konkursu można przystąpić w dowolnym momencie.
W konkursie mogą uczestniczyć
wszyscy lubiący fizykę, a nie
tylko nauczyciele czy uczniowie. Zadania są oceniane w skali
6-punktowej (od 0 do 5 punktów).
Po zgromadzeniu 100 punktów zawodnik otrzymuje tytuł Mistrza.
Trzykrotny Mistrz otrzymuje tytuł
Eksperta. Rozwiązania zadań należy przysyłać na adres Redakcji
z dopiskiem Zostań Mistrzem w ciągu dwóch miesięcy od daty ukazania
się numeru. Po zdobyciu 100 punktów zawodnikowi odejmuje się te
100 punktów z jego „konta”, a nadwyżkę zalicza na poczet nowej rundy. Zawodnicy, którzy nie przysłali
żadnego rozwiązania przez rok, są
wykreślani z naszego rejestru.
Każde zadanie powinno być
rozwiązane na oddzielnym arkuszu
papieru i podpisane imieniem i nazwiskiem uczestnika wraz z jego
dokładnym adresem domowym.
Bardzo prosimy, by rozwiązania
były pisane przejrzyście i czytelnie
i by nie powoływać się na związki,
wzory czy też prawa, których nie
ma wprost w podręczniku szkolnym dla liceów. Rozwiązania niespełniające tych warunków będą
dyskwalifikowane.
Sto trzecia seria zadań
Zadanie 103A
W dwie stykające się, nieruchome kulki uderza trzecia z prędkością o „iksowej” współrzędnej równej ux = 7 cm/s. Masy wszystkich
kulek są jednakowe. Kulki są gładkie, a zderzenie jest proste. Po zderzeniu „iksowe” współrzędne kulek
wynoszą odpowiednio: v1x = 6 cm/s,
v2x = 3 cm/s i v3x = –2 cm/s. Zakła-
damy, że kulki nie obracały się ani
przed zderzeniem, ani po nim. Zderzenie to było:
a) całkowicie niesprężyste;
b) częściowo niesprężyste;
c) sprężyste.
Odpowiedź krótko uzasadnij.
d) powietrze wewnątrz i na zewnątrz balonu zachowuje się
jak dwuatomowy gaz doskonały
o masie molowej m = 29 g/mol;
e) pomiń siłę wyporu powietrza
związaną z objętością gondoli
i osprzętu balonu.
Zadanie 103B
Moment bezwładności ciała
o masie m względem pewnej osi
przechodzącej przez jego środek
masy wynosi I0. Znajdź oś (równoległą do wyżej wspomnianej),
względem której drgania tego ciała (jako wahadła fizycznego) będą
miały najkrótszy okres. Oblicz wartość tego okresu.
Szkic rozwiązań zadań
serii turniejowej nr 100
(„Fizyka w Szkole” 4/2012)
Zadanie 100A
Przypuśćmy, że połączyliśmy ze
sobą (jedna za drugą) trzy identyczne sprężynki o stałej sprężystości k
każda (rys. 1). Obliczmy stałą sprężystości k' sprężyny, którą można
zastąpić te trzy, tak aby przy takiej
samej sile rozciągającej F wydłużenie pozostało bez zmian. Z warunków równowagi zapisanych dla
punktów A, B i C otrzymujemy:
Zadanie 103C
Masa kulistej powłoki balonu
wraz z gondolą i osprzętem wynosi M = 300 kg. Jej średnica wynosi
d = 13 m. W dolnej części balonu
znajduje się niewielki otwór, przez
który jest ogrzewane powietrze wewnątrz powłoki. Na zewnątrz pa5
nują warunki normalne (p0 = 10
Pa, T0 = 273 K). Oblicz najniższą
temperaturę powietrza wewnątrz
balonu, przy której balon zaczyna
się podnosić. Oszacuj ilość ciepła,
jaką należy dostarczyć do wnętrza
balonu, aby zaczął się on podnosić. Przyjmij następujące założenia
upraszczające:
a) początkowa temperatura wewnątrz powłoki jest taka sama
jak na zewnątrz;
b) powietrze wewnątrz balonu nagrzewa się powoli i równomiernie;
c) można zaniedbać ciepło uciekające przez powłokę balonu;
kx3 = kx2, kx2 = kx1 i kx1 = F.
Mamy zatem: x1 = x2 = x3 = x.
Ale dla nowej sprężyny: F = k'3x,
a poprzednio: F = kx.
Stąd: k' = 1/3 k.
Czyli trzy razy wydłużając sprężynę, zmniejszamy trzykrotnie stałą sprężystości, i odwrotnie: trzy
razy skracając sprężynę, również
trzy razy zwiększamy stałą sprężystości: k = 3k'. Dlatego w naszym
przypadku przy podziale w stosunku 2:1 stałe sprężystości krótszych
części obu sprężynek wynoszą:
k'1 = 3k1 i k'2 = 3k2.
Teraz, w podobny sposób jak poprzednio, policzmy stałą sprężysto-
Rys. 1.
Fizyka w Szkole 1/2013
49
olimpiady, konkursy, zadania
ści sprężynki uzyskanej w wyniku
ich połączenia. Mamy:
k'1 x1 = k'2 x2 i F = k'2 x2
oraz dla sprężynki „zastępczej”:
F = k(x1 + x2).
(gdzie I1s, I2s są natężeniami skutecznymi w odpowiednich gałęziach). Równocześnie jednakowe
są napięcia skuteczne na oporach
R3 i R4:
i dalej:
Łącząc te dwa równania, otrzymujemy:
.
Gdy uwzględnimy obliczone wcześniej stałe sprężystości uciętych
sprężynek, stała sprężystości po ich
połączeniu wynosi:
,
a po przekształceniach:
.
Zatem poprawna jest odpowiedź d.
Zadanie 100B
Jeżeli przez miernik M prąd nie
płynie, to w całej górnej gałęzi obwodu płynie prąd o tym samym natężeniu, przypuśćmy I1. W dolnej
gałęzi również popłynie taki sam
prąd przez każdy z odbiorników,
załóżmy o natężeniu I2. Ponieważ
można pominąć opory omowe
zwojnic, więc jeżeli w obwodzie
płynie prąd stały, to napięcia na
opornikach R1 i R2 są takie same:
I1R1 = I2R2.
Podobnie jest z napięciami na R3
i R4:
I1R3 = I2R4.
Zadanie 100C
Oczywiście, na mocy trzeciej zasady dynamiki, nacisk na dno N Fs
mają jednakowe wartości: Fs = N.
Gdyby woda opływała czworościan
ze wszystkich stron, działałaby na
niego pionowo do góry siłą wyporu. Jednak, zgodnie z warunkami
zadania, jego podstawa szczelnie
przylega do dna. Zatem ze skierowanej w górę siły wyporu pozostaje
skierowane pionowo w dół parcie
Pd. Z pierwszej zasady dynamiki
warunek równowagi sił działających na czworościan ma następującą postać:
Fs = Fc + Pd,
gdzie Fc jest jego ciężarem.
Stąd nacisk wynosi: N = Fc + Pd.
oba
równania,
.
Skąd otrzymujemy:
Parcie Pd obliczymy, pamiętając, że
siła wyporu jest równa różnicy parcia skierowanego w górę Pg i parcia
zwróconego w dół:
Fw = Pg – Pd,
stąd: Pd = Pg – Fw.
.
Jeśli w obwodzie płynie prąd przemienny, to napięcie skuteczne na
zwojnicy L1 i oporze R1 jest równe
napięciu skutecznemu na zwojnicy
L2 i oporze R2:
Parcie skierowane w górę obliczamy ze wzoru:
Pg = rgHS,
gdzie:
r – gęstość cieczy;
H – wysokość czworościanu (równa: H = a
2
);
3
S – pole powierzchni ściany
50
Fizyka w Szkole 1/2013
Siła wyporu z prawa Archimedesa
ma wartość:
Teraz możemy obliczyć wartość
parcia skierowanego w dół:
,
a uwzględniając wzory na wysokość
czworościanu i pole powierzchni
ściany, otrzymujemy:
.
.
Uwzględniając
mamy:
).
.
I1R3 = I2R4.
Po prostych przekształceniach otrzymujemy:
(
Ostatecznie nacisk na dno naczynia ma wartość równą:
.
Czołówka zawodników po
100. serii zadań:
Katarzyna Koś (Jasło)
81
Konrad Kapcia(Częstochowa) 72
Michał Koźlik (Gliwice)
43
Zacznę od sprostowania. Przygotowując statystykę zwycięzców
Turnieju, pomyliłem się. Kolega
Konrad Kapcia jest nie jednokrotnym, lecz dwukrotnym Mistrzem.
Jest to bardzo ważne, bo wkrótce,
po zdobyciu trzeciego tytułu Mistrza, może on zostać Ekspertem.
Biję się w piersi i przepraszam.
Drugą (miłą) informacją jest, że
powrócił do gry kolega Aleksander
Surma z Myszkowa. Bardzo się cieszymy i życzymy co najmniej takich
sukcesów, jak te osiągane w ubiegłych edycjach Turnieju.
Ostatnia informacja dotyczy
obiecanych upominków dla tych
uczestników, którzy przyślą rozwiązania jubileuszowej serii zadań
i uzyskają minimum pięć punktów.
Z przyjemnością informuję, że są
nimi: Aleksander Surma, Michał
Koźlik, Konrad Kapcia i Jan Flisek. Gratulujemy! Redakcja wyśle
nagrody na domowe adresy wyróżnionych uczestników Turnieju.
mgr B. Urwanowicz
I Liceum Ogólnokształcące im. T. Kościuszki, Wieluń
Download