Fizyka

niedziela, 02 kwietnia 2017

Kilka dni temu rozmawiałem z filmowcami planującymi zrobić program o Marianie Smoluchowskim. Ci filmowcy wiedzą wszystko o Europie przełomu stuleci, o Wiedniu, Lwowie i Krakowie, o rodzinie Smoluchowskiego, o jego wyczynach alpinistycznych i narciarskich, o podróżach i zainteresowaniach artystycznych, wiedzą to i umieją opowiedzieć. Nie widzą tylko jednego: dlaczego Marian Smoluchowski uważany jest za najwybitniejszego polskiego fizyka. To właśnie usiłowaliśmy im wytłumaczyć.

Smoluchowski zrobił w fizyce wiele wspaniałych rzeczy, z których najbardziej znane jest wyjaśnienie ruchów Browna (zobacz także artykuł w Fotonie). Cząsteczki Brownowskie, na przykład pyłki roślinne czy inne drobinki w zawiesinie wodnej, nam wydają się malutkie, ale są bardzo duże w porównaniu z cząsteczkami wody, których za to jest bardzo wiele. Cząsteczki Brownowskie zderzają się z nimi, a skumulowany, uśredniony efekt tych zderzeń widzimy jako chaotyczne, bardzo nieregularne ruchy elementów zawiesiny. Albert Einstein i Marian Smoluchowski, pracując niezależnie, podali nie tylko to wyjaśnienie, ale także teorię matematyczną pozwalającą opisać to zjawisko. Dziś tę teorię uznajemy za początki teorii procesów stochastycznych i stochastycznych równań różniczkowych (w tym momencie filmowcy odmówili współpracy).

Rzecz w tym, że cząsteczek wody jest naprawdę kolosalnie wiele i nie sposób śledzić ich wszystkich. Widać tylko uśredniony efekt wielu takich zderzeń. Istota podejścia Smoluchowskiego sprowadza się do tego, że mamy bardzo, bardzo wiele obiektów "małych", których nie sposób śledzić indywidualnie, które wpływają na na coś "dużego", co nas interesuje i co możemy obserwować. Teoria zapoczątkowana przez Smoluchowskiego pozwala przewidzieć (przynajmniej w sensie statystycznym) zachowania obiektu "dużego", zwłaszcza jeśli oprócz przypadkowych impulsów pochodzących od obiektów "małych", działa jeszcze jakiś mechanizm deterministyczny - fizyk zainteresuje się przede wszystkim oddziaływaniami, ekonomista trendami i sezonowością, a statystyk korelacjami. Wszystko to stanowi podstawę modelowania stochastycznego (Monte Carlo), jednego z najważniejszcy narzędzi badawczych nie tylko w fizyce, ale także w ekonomii, naukach przyrodniczych i w technice.

Zmieńmy temat. Ludzie przewidujący rozwój informatyki i jej zastosowań zapowiadają rychłe nadejście Internetu rzeczy, IoT. Sztandarowym przykładem jest "inteligentna lodówka", która sama stwierdzi, że kończy nam się mleko, sok i jajka, sama złoży zamówienie, a inteligentny dron sam dostarczy nam zakupy wprost do domu. Inny przykład to ekspres do kawy, który uruchomimy za pomocą aplikacji w telefonie, tak aby po wejściu do domu czekała na nas gorąca, świeżutka, pachnąca kawa. Albo inteligentny piec w łazience, który uruchomimy inną aplikacją, abyśmy mieli wodę nagrzaną na czas (zagrzana za wcześnie będzie stygnąć, czyli albo będzie zbyt zimna, jak na nasz gust, albo trzeba ją będzie podgrzewać, czyli marnować energię; zagrzana zbyt późno sprawi, że będziemy musieli czekać). Oczywiście inteligentny ekspres i inteligentny piec same zamówią serwisanta do swojego przeglądu, a gdy uznają, że są już zużyte, zasugerują nam zakup swoich następców. Inteligentne sprzęty domowe nie będą bać się śmierci. HAL 9000 jest oczywistym wyjątkiem.

Ale to nie wszystko. Dziś większość z nas ma smartfony, niektórzy smartwatche, a będzie tego więcej. Inteligentne okulary, które będą nam coś wyświetlać, inteligentne klucze, które będzie można zaprogramować tak, aby otwierały kolejne drzwi, inteligentny portfel, inteligentne urządzenia monitorujące nasz stan zdrowia, inteligentna obroża psa, żeby nie zgubił się na spacerze, inteligentne Bóg wie co jeszcze. Celem, jak mówią wizjonerzy IoT, ma być, abyśmy byli "bez przerwy zanurzeni w przestrzeni Internetu, bez potrzeby logowania". Szczerze powiedziawszy nie wiem, co dobrego mogłoby z tego wyniknąć, ale obawiam się, że ludzkość może spróbować to zrealizować.

Problemem - a może właśnie nadzieją?! - mogą okazać się wymagania sieciowe. Wszystkie te inteligentne urządzenia będą musiały bardzo często łączyć się z siecią, choćby po to, aby powiedzieć "Hej, jestem, czekam!". Zapewne nie będą robić tego tak często, jak dzisiejsze połączone z siecią komputery, ale ponieważ ma być ich naprawdę dużo, i tak wygenerują gigantyczny ruch. Duże i całkiem małe urządzenia podłączone do IoT będą się ze sobą komunikować także bez żadnej świadomej akcji z naszej strony, aby zapewnić nam to "zanurzenie w przestrzeni Internetu". Aby całego IoT szlag nie trafił, potrzebne będą nie tylko bardzo wydajne serwery, ale także inteligentne - no jakże by inaczej - algorytmy obsługi ruchu. I tu wracamy do paradygmatu ruchów Browna: mnóstwo "małych", czyli impulsów pochodzących od tych wszystkich inteligentnych gadżetów, a imię ich Legion, może zauważalnie wpływać na coś "dużego", czyli na sieć łączącą te wszystkie "małe" i na zarządzające nią serwery, choć wpływ każdego "małego" z osobna jest pomijalny. Co więcej, stany urządzeń IoT nie będą w pełni niezależne: nasza inteligentna lodówka raczej nie wyjdzie z kuchni, ale inteligentne okulary będą się wraz z nami przemieszczać naszymi inteligentnymi samochodami, a wraz z inteligentnymi okularami zazwyczaj będą to robić nasze inteligentne klucze i portfel. Aby to wszystko inteligentnie obsłużyć, sięgnąć trzeba będzie do zaawansowanych modeli matematycznych, wyrosłych z teorii, którą Marian Smoluchowski wymyślił nieco ponad sto lat temu aby wyjaśnić ruchy Browna.

Uzupełnienie: Obecny stan internetu rzeczy dobrze ilustruje smutna historia programisty, który przez 11 godzin usiłował uruchomić swój nowy czajnik podłączony do WiFi.

Marian Smoluchowski, 1872-1917

Marian Smoluchowski, 1872-1917

czwartek, 08 grudnia 2016

W moim poprzednim wpisie wspomniałem, że grupa profesorów smoleńskich wystąpiła z wnioskiem o odebranie Maciejowi Laskowi, byłemu przewodniczącemu Państwowej Komisji Badania Wypadków Lotniczych, stopnia naukowego doktora nauk technicznych. Wniosek, w świetle obowiązującego w Polsce prawa, był oczywiście bezzasadny i natychmiast upadł, został jednak złożony i wszedł do kronik niesławy nauki polskiej. Jednym z wnioskodawców był, jak się okazuje, negatywny bohater mojego dawnego wpisu, fizyk, profesor zwyczajny na moim Wydziale. Indagowany o przyczyny tego kroku miał odpowiedzieć, że prawa fizyki zostały pogwałcone przez oficjalny raport [o przyczynach katastrofy pod Smoleńskiem] i odesłał do materiałów IV Konferencji Smoleńskiej.

W materiałach tej konferencji znajduje się jedno wystąpienie odnoszące się bezpośrednio do praw fizyki: Prawa fizyki a katastrofa smoleńska, a jego autorem jest prof. Zbigniew Jelonek z Instytutu Matematyki PAN.

Zadałem sobie bolesny trud przeczytania tego wystąpienia, a także wysłuchania jego nagranej wersji mówionej, również dostępnej na stronach konferencji. Trud był bolesny ze względu na tematykę, na dość chaotyczną formę wystąpienia (w wersji pisanej, zwłaszcza zaś mówionej), a wreszcie z powodów osobistych: Zbyszek Jelonek to mój kolega z klasy.

Prof. Jelonek zwraca uwagę na pewne nieścisłości w raporcie Komisji Millera (na przykład niewłaściwie obliczone kąty, pod którymi samolot ścinał gałęzie drzew, a także przesunięcia czasowe niektórych zdarzeń). I dobrze, że to robi! Jak już pisałem, sam przebieg destrukcji samolotu nie jest bardzo ważny, ale usuwanie takich nieścisłości i niedoróbek zmniejsza pole do siania wątpliwości przez zwolenników hipotezy wybuchowej. Podobną zresztą rolę odgrywają wyjaśnienia prof. Jancelewicza, z których wynika, że samolot uszkodził klapy i sloty lewego skrzydła już przy pierwszym zderzeniu z drzewami, jeszcze przed brzozą. Brzoza zaś została przez skrzydło ścięta, ale tak nadwerężyła jego konstrukcję, że skrzydło oderwało się za brzozą, na skutek działania sił aerodynamicznych. To by zapewne tłumaczyło błędną identyfikację "brzozy" w danych z czarnych skrzynek z raportu Millera (patrz Jelonek, Rys. 17): Nie chodzi o fizyczny kontakt z brzozą, ale o utratę końcówki skrzydła po zderzeniu z brzozą. Idąc dalej tym tropem, ponieważ "brzoza" staje się punktem odniesienia dla względnych przesunięć czasowych, wyjaśnia to, dlaczego to prof. Jelonek (str. 42) myli się twierdząc, że Komisja Millera przesunęła punkt TAWS 38 o 1 sekundę do przodu.

To jednak są tylko poboczne punkty z wystąpienia prof. Jelonka. Jego główną treścią są obliczenia sił, jakie działały na samolot w płaszczyźnie poziomej i wywołany przez nie przekaz pędu. Jelonek dowodzi, że przekaz ten był zbyt mały, aby wywołać taki skręt samolotu, jaki w rzeczywistości miał miejsce. Stąd wynika, powiada Jelonek, że na samolot musiała zadziałać znaczna siła dodatkowa. Prof. Jelonek stawia hipotezę, że siła ta to w istocie odrzut spowodowany wybuchem w prawej środkowo-dolnej części samolotu nad punktem TAWS 38 (str. 37). 

Prof. Jelonek nie mówi tego wprost, ale zdaje się, że swoje obliczenia prowadził przy założeniu, że nieuszkodzony samolot, z symetrycznie działającą na skrzydła siłą nośną, uderza w brzozę, nie traci w zderzeniu końcówki skrzydła oraz nie doświadcza przekazu pędu w innych (wcześniejszych i późniejszych) zderzeniach z przeszkodami terenowymi. O siłach aerodynamicznych Jelonek w ogóle nie wspomina (str. 36), zaniedbując ich wpływ. Tymczasem jak wiemy z rozmowy z prof. Jancelewiczem, samolot był uszkodzony już po pierwszych (przed brzozą) zderzeniach z drzewami, i to uszkodzony niesymetrycznie: lewe skrzydło opadało. Należałoby zatem uwzględnić wpływ pary sił, powodujących obrót samolotu wzdłuż osi podłużnej, tym większy, gdy samolot już stracił końcówkę lewego skrzydła. W ostatecznym bilansie należałoby też uwzględnić pęd unoszony przez oderwaną końcówkę skrzydła (i inne drobniejsze fragmenty). Jaki to wszystko, a w szczególności asymetryczne siły aerodynamiczne, miało wpływ na poziomą trajektorię samolotu, pojęcia nie mam. Pewnie trzeba by przeprowadzić szczegółowe obliczenia, symulacje - nie symulacje oderwania się skrzydła, ale symulacje samego lotu uszkodzonego samolotu. Zapewne wymagałoby to użycia bardziej zaawansowanych narzędzi, niż w gruncie rzeczy szkolna fizyka, jaką posługuje się Jelonek.

Tak czy siak, nie negując dobrej woli prof. Zbigniewa Jelonka na tym etapie rozważań, muszę powiedzieć, że jego konkluzje są nieprzekonujące, jako że autor pomija szereg czynników, które z wielkim prawdopodobieństwem miały wpływ na trajektorię lotu. Hipoteza o wybuchu nad punktem TAWS 38 staje się zbędna, a co najmniej nieudowodniona, podobnie jak zarzut, iż wyniki zawarte w raporcie Komisji Millera są sprzeczne z prawami fizyki.

W końcowej części wykładu matematyk Jelonek... analizuje zdjęcia z blogów, na których, jak sam przyznaje, niewiele widać. (Ten fragment jest tylko zasygnalizowany w wersji pisanej; w wersji mówionej eksponowany był znacznie mocniej.) Przy natężeniu dobrej woli można przyjąć, że widać, iż coś, co mogłoby być fragmentem burty samolotu, leży 250m od głównego wrakowiska. Według prelegenta dowodzi to, że był wybuch. Dramat.

Odnoszę wrażenie, że Zbigniew Jelonek trochę na siłę chciał dopasować swoje tezy do "raportu Szuladzińskiego". Tyle tylko, że Szuladziński twierdził, iż nieuszkodzony samolot doleciał odpowiednio wysoko, nie zderzając się z drzewami, aż do punktu TAWS 38, gdzie nastąpił wybuch. Prof. Jelonek natomiast nie zaprzecza, że samolot kilkaset metrów od progu pasa znalazł się na wysokości kilkunastu-kilku metrów nad ziemią, że dochodziło do zderzeń z przeszkodami terenowymi, że od zderzenia z brzozą (do którego według Jelonka na pewno doszło!) do upadku na ziemię minęło kilka (niewielkie kilka) sekund, że samolot utracił końcówkę skrzydła jeszcze przed punktem TAWS 38 (str. 36, prawa kolumna u góry!), a mimo to utrzymuje, że przyczyną katastrofy był... wybuch nad punktem TAWS 38?! Wybuch, który źli ludzie zaplanowali tak precyzyjnie, że miał miejsce w kilkusekundowym okienku pomiędzy zderzeniem z drzewami a upadkiem samolotu. No nie może być...

niedziela, 19 kwietnia 2015

Michał Olszewski w niedawnym komentarzu w krakowskiej Gazecie Wyborczej biada nad stanem komunikacyjnej klęski, jaki pojawił się w centrum Krakowa po wyłączeniu fragmentu ulicy Podwale na skutek remontu.

Samochody zatkały Garbarską, Dolnych Młynów, Garncarską, Rajską, Lubicz, Krowoderską i Łobzowską. To już nie jest korek, to kataklizm. [...] Jeśli lawinową reakcję wywołało wyjęcie jednego fragmentu asfaltu [...], oznacza to, że jeszcze przed remontem system komunikacyjny funkcjonował na granicy wytrzymałości. Wystarczyło wyjęcie jednego elementu, by zawalił się z hukiem silników i w smrodzie spalin. Wpadliśmy we własne sidła, ponieważ samochodów przybywało tak długo, że niewidzialna granica została przekroczona. Wypełnialiśmy autami Kraków tak długo, że w końcu wypełnił się po brzegi.

Artykuł ilustrowany jest zdjęciem zatkanej ulicy Studenckiej. Ktoś inny wrzucił do internetów film pokazujący zakorkowany na głucho Plac Biskupi.

Olszewski zdaje się sądzić, że w Krakowie samochodów jest tak wiele, że fizycznie zaczyna dla nich brakować miejsca. To trochę naiwne. Odwrotny efekt obserwujemy w czasie ferii szkolnych, gdy po mieście nagle zaczyna się jeździć rewelacyjnie. Ludzie się dziwują: Popatrz, jak wiele osób wozi dzieci samochodami do szkoły, są ferie i ile samochodów ubyło!

To nie tak. Aby lepiej zrozumieć te zjawiska, trzeba popatrzyć się na nie okiem fizyka. Fizycy, owszem, zajmują się modelowaniem ruchu samochodowego: Z punktu widzenia fizyki ruch samochodowy do układ oddziałujących cząsteczek poddany więzom. Przy czym oddziaływanie nie polega na tym, że samochody się zderzają, ale na tym, że się nie zderzają: dwie cząsteczki nie mogą zajmować tej samej przestrzeni. Jest to oddziaływanie typu wyłączonej objętości, silnie nieliniowe. Od dawna wiadomo, że w układach takich mogą występować przejścia fazowe. W wypadku ruchu samochodowego jest to przejście od przepływu laminarnego do przeciążenia (congestion) sieci drogowej, manifestującego się korkami, czyli stanami, w których lokalnie ruch staje się niemożliwy. Parametrem kontrolnym jest gęstość pojazdów uczestniczących w ruchu (w uproszczeniu, liczba pojazdów na kilometr drogi).

Występowanie opisanych powyżej efektów - zamknięcie niewielkiego fragmentu ulicy generuje olbrzymie korki; gdy stosunkowo niewiele samochodów przestaje uczestniczyć w ruchu, układ przechodzi do fazy laminarnej - oznacza, że Kraków, przy istniejącej sieci drogowej, zbliża się do stanu krytycznego (termin techniczny), do obszaru przejścia fazowego. W obszarze krytycznym nawet niewielka zmiana gęstości może powodować bardzo duże efekty. Co więcej, przy zbliżaniu się do stanu krytycznego, korelacje mogą mieć bardzo duży zasięg i datego widzimy korki nawet całkiem daleko od Podwala. Nie jest to spowodowane tym, że na Podwalu normalnie mieściło się bardzo dużo samochodow, które teraz nie mają się gdzie podziać, ale nieliniową dynamiką ruchu ulicznego. Odwrotnie, gdy w czasie ferii szkolnych ruch samochodowy się uspokaja, nie musi to oznaczać, że tak dużo samochodów wycofało się z ruchu, ale że nawet niewielki ubytek w liczbie uczestników powoduje znaczne oddalenie się od stanu krytycznego, od fazy przeciążenia.

Rozwiązaniem problemów komunikacyjnych Krakowa powinno być usprawnienie komunikacji zbiorowej. Z tym jednak Kraków ma problemy. Miasto z jednej strony werbalnie zachęca do korzystania z tramwajów i autobusów, z drugiej w praktyce do tego zniechęca, ciągle zmieniając trasy poszczególnych linii, skracając linie i zmniejszając liczbę kursów. Ciągle nie ma chęci do budowy porządnej sieci parkingów P&R, słabo wykorzystywane są lokalne linie kolejowe (trzeba by je wyremontować, bo są w kiepskim stanie), niektóre osiedla są bardzo kiepsko skomunikowane z centrum, za to miasto a to chce budować kolejne parkingi blisko ścisłego centrum, a to szerokie ulice wprowadzające ruch samochodowy do środka miasta. A tymczasem w centrum autobusy, a już szczególnie tramwaje... grzęzną w korkach.

Wracając do obecnego stanu, remont na Podwalu zaczął się kilka dni temu. Możliwe, że problem korków po części rozwiąże się "sam", to znaczy kierowcy nauczą się efektywnego korzystania z tras alternatywnych. Mówiąc w języku naukowym, układ znajdzie nową równowagę Nasha, na co w wypadku układów rzeczywistych po prostu trzeba trochę czasu.

czwartek, 11 kwietnia 2013

Kilka dni temu zespół kosmicznego spektroskopu AMS poinformował o zaobserwowaniu nadmiaru wysokoenergetycznych pozytonów w przestrzeni kosmicznej. W Gazecie Wyborczej pisał o tym Piotr Cieśliński. Obserwacja ta może stanowić "namacalny" dowód istnienia ciemnej materii - i stąd właśnie bierze się zainteresowanie mediów.

Ciemna materia

Ciemna materia nie jest przedmiotem moich badań naukowych, ale kilka lat temu zacząłem się nią interesować, trochę ze wstydu, że ja, fizyk, tak niewiele wiem o czymś, co wydaje się tak bardzo ważne. W efekcie napisałem nawet artykuł popularnonaukowy do Fotonu (Foton 103, 16-22 (2008)). Istnienie ciemnej materii zostało pierwszy raz zasugerowane w latach '30 XX wieku - okazało się, że musi istnieć coś, jakaś dodatkowa materia, która wywiera swój grawitacyjny wpływ na pozostałą materię, w szczególności na gwiazdy, i nadaje im obserwowane prędkości. Materia ta jest niewidoczna, nie pochłania ani nie wysyła światła bądź innego promieniowania, a zatem jest ciemna.

Obecnie wydaje się, że ciemna materia gromadzi się głównie nie tam, gdzie początkowo przypuszczano, to znaczy w galaktykach, ale w przestrzeni międzygalaktycznej, stabilizując gromady galaktyk i czyniąc z nich największe związane obiekty we Wszechświecie. Obserwacje mikrosoczewkowania grawitacyjnego w gromadach galaktyk potwierdzają (prawie na pewno) istnienie ciemnej materii. Ba, jest jej kilka razy więcej, niż materii widzialnej!

Większość fizyków uważa, że oprócz materii widzialnej i ciemnej istnieje rzecz jeszcze bardziej egzotyczna, zwana ciemną energią. Wywiera ona ujemne ciśnienie i powoduje, że ekspansja Wszechświata nieustannie przyspiesza. Mamy jednak tylko pośrednie przesłanki świadczące o istnieniu ciemnej energii.

Eksperyment AMS

Czym jest ciemna materia? Tego nie wiadomo. Zgodnie z paradygmatem fizyki przypuszcza się, że tworzą ją jakieś cząstki; zgodnie z tym samym paradygmatem cząstki te powinny oddziaływać nie tylko grawitacyjnie: Powinno występować jakieś pozagrawitacyjne - choć bardzo, bardzo słabe - oddziaływanie cząstek ciemnej materii ze sobą i z cząstkami materii zwykłej. Jednym z możliwych procesów jest anihilacja cząstek ciemnej materii, w wyniku której produkowane są strumienie elektronów i pozytonów. Elektronów jest w przestrzeni kosmicznej dużo, trudno więc odróżnić te pochodzące od ciemnej materii. Co innego pozytony - ich jest mało, a więc jeżeli gdzieś zauważymy wzrost ich liczby, może to świadczyć o tym, że dowodzą one anihilacji - a więc uprzedniego istnienia! - cząstek ciemnej materii.

Obserwacje takie prowadził już włoski satelita PAMELA, ale wyniki nie były w pełni przekonujące.

Zainstalowany na pokładzie Międzynarodowej Stacji Kosmicznej (ISS) wielki Alpha Magnetic Spectrometer (AMS) przeznaczony jest do badania promieniowania kosmicznego. AMS zaprojektował, zbudował, a teraz obsługuje 600-osobowy zespół badawczy, kierowany przez noblistę Samuela Tinga. Pierwszym zadaniem AMS było właśnie poszukiwanie nadmiarowych pozytonów, mogących pochodzić z anihilacji ciemnej energii, i zmierzenie ich widma energetycznego. Na konferencji prasowej w CERN zaprezentowano pierwsze wyniki.

AMS data

Ten wykres stanowi niewątpliwy znak, że coś się dzieje. Są nadmiarowe pozytony i mają swoją strukturę energetyczną, ba, taką, która pasuje do pewnego modelu teoretycznego ciemnej materii. Nie ma jednak całkowitej pewności, że zarejestrowane cząstki pochodzą z anihilacji ciemnej materii - mogą też pochodzić z jakichś niezaobserwowanych pulsarów lub innych egzotycznych źródeł. Nie ma też całkowitej pewności jakie powinno być galaktyczne tło pozytonowe, a zatem ile nadmiarowych pozytonów tak naprawdę zaobserwowano. I najważniejsze, gdyby pozytony pochodziły z anihilacji cząstek ciemnej materii, ich widmo energetyczne powinno mieć wyraźny pik, odpowiadający podwojonej masie anihilujących cząstek. Być może pik taki pojawi się w wysokoenergetycznej części widma, której dotąd nie udało się zmierzyć.

Dlatego też Ting jest bardzo ostrożny i nie mówi o odkryciu cząstek ciemnej materii, ale o "zaobserwowaniu nowego zjawiska fizycznego" i zapowiada dalsze pomiary, przede wszystkim w wysokoenergetycznej części widma. Ting chciałby, aby zarejestrowane dotąd 7 milionów cząstek ostatecznie stanowiło tylko 10% całości.

Można zadać pytanie dlaczego zatem Samuel Ting zdecydował się ogłosić niepełne wyniki? Złośliwi twierdzą, że eksperyment AMS był niezwykle kosztowny (dwa miliardy dolarów wobec planowanych kilkudziesięciu milionów!), więc musiał pokazać jakieś ciekawe wyniki, żeby uzasadnić swoje istnienie. Na ten aspekt zwraca uwagę Science w swoim komentarzu.

Przewrót kopernikański

W starożytności i średniowieczu to Ziemia stanowiła centrum Wszechświata. Kopernik umieścił w centrum Słońce, a Ziemię przegnał na orbitę. Mr William Herschel pokazał, że Układ Słoneczny leży gdzieś na uboczu Galaktyki. Edwin Hubble udowodnił, że nasza Galaktyka jest tylko jedną z bardzo wielu galaktyk, które w dodatku oddalają się od siebie. Ha, cóż, okazaliśmy się zaledwie drobnym pyłkiem gdzieś wewnątrz nieogarnionego Wszechświata, ale przynajmniej wiedzieliśmy, z czego ten Wszechświat jest zbudowany. Albo tak nam się przynajmniej wydawało.

O ciemnej materii prawie na pewno wiemy, że istnieje. W kwestii ciemnej energii dysponujemy tylko niepotwierdzonymi hipotezami. Ale jeżeli ciemna energia rzeczywiście istnieje, to wedle dostępnych dziś danych, zawiera w sobie około 72% całkowitej energii Wszechświata. Mniej więcej 23% przypada na ciemną materię, niecałe 5% na zwykłą materię i wszelkie znane formy promieniowania, przy czym materia wszystkich gwiazd i ich układów planetarnych zawiera zaledwie 0,4% całkowitej energii Wszechświata (olbrzymia większość zywkłej materii występuje w postaci bardzo rozrzedzonej plazmy galaktycznej i międzygalaktycznej). To zestawienie daje pojęcie o naszej roli we Wszechświecie.

A jeśli przyjąć hipotezę Wieloświata (ang. Multiverse), cały nasz Wszechświat okaże się tylko jednym z nieprzebranej liczby wielu współistniejących wszechświatów. Tak wygląda współczesny przewrót kopernikański.

Moje dawne teksty o ciemnej materii, z nieaktywnego już bloga Świat - jak to działa:
21.08.08 Ciemna materia trochę jaśniejsza. Być może
28.08.08 PAMELA 007
 5.11.08 Galaktyczne kłopoty
 9.12.08 PAMELA i balony
12.12.08 Zważyć niewidzialne
 4.05.09 Nie widać ciemności
21.12.09 Ciemna materia, dwa trafienia
14.02.10 Zbyt jasno na ciemną materię

niedziela, 07 kwietnia 2013

Czy William Herschel, jeden z twórców nowoczesnej astronomii, miał prawo do posługiwania się tytułem "sir"? On sam to robił, a liczne podręczniki i opracowania z historii astronomii także w ten sposób Herschela tytułują. Okazuje się, że całkiem niesłusznie. Sprawę wyjaśnia artykuł w najnowszym numerze Journal for the History of Astronomy. Historia jest tak bardzo brytyjska, że postanowiłem ją tutaj przedstawić.

W latach 1714-1837 Zjednoczone Królestwo pozostawało w unii personalnej z księstwem (później królestwem) Hanoweru. Formalnie jednak oba państwa pozostawały oddzielne. William Herschel był Hanowerczykiem z urodzenia, ale w roku 1793 został poddanym brytyjskim. Po wojnach napoleońskich, rządzący oboma królestwami książę regent, późniejszy król Jerzy IV, ustanowił Royal Guelphic Order jako odznaczenie hanowerskie, a Herschel, któremu marzyło się szlachectwo, był "naturalnym" kandydatem do otrzymania tytułu rycerskiego związanego z tym orderem. Tak też się w roku 1816 stało. Jednak z brytyjskiego punktu widzenia był to tytuł zagraniczny, nie oznaczał więc uzyskania brytyjskiego szlachectwa i nie uprawniał posiadacza do posługiwania się tytułem "sir". Co ciekawe, dla Herschela order nie oznaczał też szlachectwa hanowerskiego, gdyż otrzymał go jako Brytyjczyk, nie Hanowerczyk. Wydaje się, że ani regent, ani nikt z jego otoczenia, nie zdawali sobie sprawy z tych komplikacji, a William Herschel do końca życia posługiwał się tytułem "sir".

W końcu rzecz się jednak wyjaśniła, przynajmniej na poziomie oficjalnym. Wdowa po Herschelu wciąż tytułowała się "Lady Herschel". W roku 1831 syn Williama Herschela, John, także wybitny astronom i przyrodnik, znalazł się przeto w nie lada kłopocie, gdy król Wilhelm IV postanowił odznaczyć go tym samym orderem, co jego ojca. Dla matki Johna, wdowy po Williamie, musiało to oznaczać, że jej syn stanie się "sir Johnem", a gdyby tak nie było, a być nie mogło, oznaczałoby to zakwestionowanie jej własnego statusu. Aby nie rujnować świata swojej matki, John początkowo planował odmówić przyjęcia orderu, a gdy okazało się to niemożliwe ze względów politycznych, uprosił, aby król osobnym aktem nadał mu szlachectwo brytyjskie. W ten sposób John Herschel istotnie stał się sir Johnem, ukrywając przed matką, że nie było to automatycznie związane z posiadaniem hanowerskiego Orderu Gwelfów.

Takie rzeczy to tylko w Brytanii...

piątek, 28 grudnia 2012

Kilka blogów naukowych (Of Particular Significance, Screw Cable, Résonaances, wreszcie należący do Economista Babbage) doniosło ostatnio, że odkryta w CERN cząstka Higgsa być może ma inne własności, niż przewiduje Model Standardowy. Sami autorzy studzą nastroje i podkreślają, że nie można jeszcze mówić o przełomowym odkryciu, jednak gdyby doniesienia te się potwierdziły, byłaby to bardzo dobra wiadomość dla fizyki.

Czym jest cząstka Higgsa? Na ogół powiada się, że „bez bozonu Higgsa materia nie miałaby w ogóle masy”. Nie jest to w pełni poprawne. Zgodnie z Modelem Standardowym teorii cząstek, cała przestrzeń wypełniona jest polem Higgsa. Stan o najniższej energii odpowiada niezerowej gęstości tego pola. Cząstki elementarne nieustannie z nim oddziałują, przedzierają się przez nie, i na skutek tego oddziaływania nabierają bezwładności, czyli masy. Taki mechanizm zaproponował 48 lat temu brytyjski fizyk Peter Higgs. Fundamentalnym fermionom (kwarkom i leptonom) w zasadzie można by przypisać masę arbitralnie, choć byłoby to nieeleganckie; lepiej jest to zrobić poprzez mechanizm Higgsa. Gorzej jest z bozonami Z i W, przenoszącymi oddziaływania słabe: dobrze wiemy, że są one masywne (sto razy bardziej, niż proton), ale poza mechanizmem Higgsa nie znamy innego sposobu, w jaki mogłyby one uzyskać masę. Dlatego właśnie istnienie pola Higgsa jest tak ważne dla Modelu Standardowego.

Pola Higgsa nie możemy bezpośrednio zaobserwować – właśnie dlatego, że, w pewnym sensie, obserwujemy je bez przerwy. Jest ono naturalnym tłem dla całej znanej nam fizyki. Możemy obserwować odstępstwa od stanu naturalnego. Takimi odstępstwami są wzbudzenia pola Higgsa, pojawiające się na skutek wysokoenergetycznych zderzeń, manifestujące się jako osobne cząstki elementarne. Bozon Higgsa jest takim właśnie wzbudzeniem. Używając oklepanej (i naciąganej) analogii, pole Higgsa jest oceanem, a cząstki Higgsa niewielkimi falami na powierzchni bardzo, bardzo, bardzo spokojnego oceanu. Można powiedzieć, że fizycy tak bardzo chcieli odkryć cząstkę Higgsa nie z uwagi na nią samą, ale po to, aby uzyskać pośredni dowód na istnienie pola Higgsa.

Model Standardowy dość dokładnie przewiduje własności cząstki Higgsa. Co by się stało, gdyby odkryta cząstka dokładnie spełniała przewidywania modelu? Byłby to wielki tryumf przenikliwości fizyków pracujących nad Modelem Standardowym. Cały gmach fizyki cząstek byłby wreszcie kompletny, skończony, wszystko by do siebie pasowało. Ludzkość dysponowałaby perfekcyjnym modelem, zdolnym przewidywać wszystkie zjawiska ze świata cząstek elementarnych. I to właśnie byłby problem. Nie byłoby już nic do odkrycia. Owszem, zostałoby jeszcze dużo faktów szczegółowych do ustalenia i wyjaśnienia, ale nic fundamentalnie nowego, nieznanego, a przez to wartego zbadania. Sytuacja byłaby podobna do tej z końca XIX wieku, gdy gmach ówczesnej fizyki wydawał się skończony, a fizyka zdawała się nie nieść żadnych poważnych wyzwań intelektualnych. Na szczęście dla fizyki kilka drobnych, jak się wydawało, problemów doprowadziło do przełomowych odkryć i teorii: mechaniki kwantowej, fizyki relatywistycznej i teorii procesów stochastycznych.

Wielu fizyków uważa, że fizyka cząstek elementarnych jest w takiej sytuacji, jak cała fizyka sto kilkadziesiąt lat temu. Potrzeba nowych, zaskakujących, nie dających się przewidzieć na gruncie istniejącej teorii faktów doświadczalnych, aby pchnąć całą dyscyplinę do przodu. W przeciwnym razie popadnie ona w stagnację. Wciąż mamy skąpe ilości danych, ale wydaje się, że odkryta latem cząstka Higgsa jest prawie dokładnie taka, jak to wynika z Modelu Standardowego. Właściwie zaobserwowano tylko dwa odchylenia. Po pierwsze – i o tym właśnie donoszą przywołane wyżej blogi – dane z detektora ATLAS zdają się świadczyć, że istnieją dwie różne cząstki Higgsa. No, to byłoby coś! Cząstki Higgsa nie można obserwować bezpośrednio, jest ona bardzo niestabilna i rozpada się na cząstki potomne, też zresztą niestabilne – dopiero produkty ich rozpadu daje się zarejestrować. Na tej podstawie można w szczególności wyznaczyć masę cząstki pierwotnej, domniemanej cząstki Higgsa. Otóż grupa ATLAS twierdzi, że w zależności od tego, czy obserwuje się cząstkę rozpadającą się na dwa fotony, czy na dwa bozony W  lub Z, można wyznaczyć inne masy. Różnica mas dwu hipotetycznych cząstek Higgsa (126.6 GeV/c2 vs 123.5 GeV/c2) wyraźnie przekracza zdolność rozdzielczą detektora, choć nie można z całą pewnością wykluczyć jakiegoś źle skalibrowanego urządzenia (pamiętajmy o źle podłączonym kablu, który rok temu doprowadził do spekulacji na temat nadświetlnych neutrin). Z drugiej strony danych jest wciąż tak niewiele, że prawdopodobieństwo, iż zaobserwowany efekt tak naprawdę jest fluktuacją statystyczną – dziwną, ale możliwą – jest duże. I tak zapewne jest, tym bardziej, że siostrzany detektor, CMS, prowadzący analogiczne pomiary, jak ATLAS, ale nieco innymi technikami, żadnych „dwu Higgsów” nie widzi. Oba detektory, ATLAS i CMS, badają tę samą wiązkę wytworzoną w LHC.

Po  drugie, obserwuje się nieco więcej rozpadów cząstek Higgsa na dwa fotony, niż przewiduje Model Standardowy (jest za to niedomiar rozpadów na dwa bozony W  lub Z). W tym wypadku dane z ATLASa i CMS są zgodne, a im więcej danych doświadczalnych gromadzimy, tym efekt staje się wyraźniejszy, choć wciąż nie można z całą pewnością orzec, że nie jest to fluktuacja statystyczna. Zakładając jednak, że efekt jest prawdziwy, nie umiemy go wytłumaczyć – i to właśnie ekscytuje fizyków zajmujących się cząstkami elementarnymi. Skoro czegoś nie rozumiemy, wciąż jest co badać! Kto wie, może ten efekt – choć niewielki i wciąż nie w pełni potwierdzony – otworzy drogę do obserwacji zupełnie nieznanych zjawisk?

Rekapitulując, odkrycie cząstki Higgsa dokładnie takiej, jak to przewiduje Model Standardowy, byłoby jednocześnie i wielkim sukcesem, i zdarzeniem nieciekawym. Oznaczałoby kres teorii cząstek elementarnych. Z tego względu fizycy z wielkimi nadziejami spoglądają na – niewielkie, nieliczne i w dodatku wciąż niepotwierdzone – odstępstwa zebranych wyników od przewidywań modelu. Ja, nie będąc cząstkowcem, jestem raczej sceptyczny, ale…

czwartek, 28 lipca 2011

Wczoraj gdzieś w Polsce zdarzył się wypadek kolejowy: Siedem wagonów towarowych, w tym trzy załadowane kruszywem, stoczyło się z górki, wykoleiło, uderzyło w dom, zburzyło go i zabiło trzy osoby. Okazuje się, że trzech młodzieńców pracujących przy rozładunku wagonów zwolniło hamulce, żeby sobie ułatwić pracę. Najprawdopodobniej przesuwali wagony łyżką koparki, a że było z górki, wozy odbiegły, jak to przepięknie pisał Stefan Grabiński, i stało się nieszczęście. Cóż, młodzieńcy chyba nie uważali na lekcjach fizyki. Gdyby zabili samych siebie, zasłużyliby na Nagrodę Darwina, lecz, niestety, zabili troje Bogu ducha winnych ludzi.

Komentator tanczacy.z.myslami pisze pod artykułem tak:

taki całkiem załadowany wagon może ważyć ze 70 ton, to kilka połączonych, nawet pustych, razy szybkość, stanowi straszliwą niszczącą masę.

Ten komentator ma słuszną intuicję, że masywne, rozpędzone wagony mogą wykonać znaczną pracę, obawiam się wszkaże, że on też niezbyt uważał na lekcjach fizyki. Ek=½ mv2.

sobota, 17 lipca 2010

Szukając materiałów do mojego poważnego wpisu na temat dyskusji wokół globalnego ocieplenia, trafiłem na ciekawy artykuł w Nature. Otóż klimatolodzy wyobrażają sobie, że Szeroka Publiczność czerpie przekonania na temat zmian klimatycznych z prac i dyskusji naukowych. Guzik prawda. Szeroka Publiczność korzysta z przekazów medialnych (które na ogół same korzystają z wcześniejszych przekazów medialnych), przede wszystkim zaś z obserwacji pogody za oknem. Tegoroczna zima była bardzo ostra - o czym sam z trudem przypominam sobie podczas obecnej fali upałów - a już na Wyspach Brytyjskich była ostra wyjątkowo. Brytyjska prasa popularna kpiła wówczas z hipotezy globalnego ocieplenia, wieszcząc raczej początek nowej "małej epoki lodowcowej". W rezultacie, jak pokazały badania opinii publicznej przeprowadzone przez BBC, podczas gdy w listopadzie 2009 41% Brytyjczyków wierzyło, że globalne ocieplenie jest spowodowane przez ludzi, odsetek ten spadł do 26% w lutym 2010.

Klimatolodzy załamują ręce. Lokalna pogoda, to, czy jest ciepło czy zimno, sucho czy mokro, nie musi być związana ze zmianami klimatu. Mogą to być odchylenia od wieloletniego trendu. Fluktuacje, jak powiedzieliby fizycy. Liczy się trend oraz zjawiska w skali planetarnej: tak, zima w Europie była ciężka, ale mniej więcej w tym samym czasie na olimpiadzie w Vancouver śnieg na trasy narciarskie trzeba było dowozić ciężarówkami, zawodnicy zaś startowali niekiedy przy +10°C. Ba, z pewnych modeli atmosfery wynika, iż globalne ocieplenie skutkować może większą liczbą dni o temperaturach ekstremalnych, bardzo gorących, ale i bardzo zimnych, tak, że średnia będzie przesuwać się w górę. Tegoroczne anomalie pogodowe w Europie w żaden sposób nie przeczą hipotezie globalnego ocieplenia, chociaż konstatacja ta kłóci się z podejściem zdroworozsądkowym. Klimatolodzy wkładają więc wiele wysiłku aby przekonać Szeroką Publiczność, że związek pomiędzy pogodą a zmianami klimatu nie jest tak bezpośredni, jak by to się mogło wydawać.

Tymczasem wszkaże okazało się, że ludzie coraz mniej chętnie wierzą w hipotezę globalnego ocieplenia - wciąż wierzy w to większość mieszkańców strefy euroatlantyckiej, jednak wyraźnie mniej, niż jeszcze kilka lat temu. Jedną z przyczyn jest spadek zaufania do klimatologów, wywołany serią skandali, o której wspominam na blogu Tygodnika. Klimatolodzy planują więc odzyskać zaufanie poprzez szereg akcji PR, ocieplanie (nomen omen) wizerunku nauki, planują także wykorzystać... prezenterów pogody. Ludzie wierzą bowiem swoim ulubionym prezenterom  i, zapewne, wydawać im się będzie naturalne, iż ci, mówiąc o pogodzie,  będą im też tłumaczyć zmiany klimatu.

Czy to nie zabawne? Z jednej strony kilmatolodzy protestują przeciwko wiązaniu pogody z klimatem, z drugiej jednak sami chcą to powiązanie wykorzystać.

Z napięciem czekam czy Doskonaleszary na mnie za to napadnie, tu albo na blogu Tygodnika ☺.

środa, 28 października 2009

Przy okazji dyskusji na temat globalnego ocieplenia, w której, w najdziwniejszym miejscu na świecie, ku swojemu zdumieniu wziąłem udział (no dobrze, sam ją wywołałem i jeszcze się włączę), przyszła mi do głowy taka oto myśl:

Natura przez setki milionów lat wycofywała z obiegu węgiel, zamykając go między innymi w skałach, które my uważamy za źródła paliw kopalnych. Spalając węgiel kamienny, ropę i gaz ziemny, przywracamy do obiegu miliardy ton węgla. Działamy w ten sposób contra naturam, wbrew naturalnym procesom przyrodniczym, a skoro tak, to nasze działania mogą długofalowo okazać się naprawdę katastrofalne w skutkach. Oczywiście nie jest to argument naukowy, lecz publicystyczny. Ale mnie daje on do myślenia.

Z tego punktu widzenia biopaliwa wydają się "lepsze", gdyż ich spalanie nie wprowadza do obiegu "nowego" węgla, a tylko ponownie uwalnia ten, który już krążył w przyrodzie. Jednak zalety biopaliw są względne: Aby wyprodukować ich tyle, żeby miały one jakiekolwiek znaczenie, trzeba albo karczować lasy, albo ograniczać powierzchnię upraw roślin przeznaczonych do spożycia. To pierwsze jest szkodliwe z punktu widzenia obiegu węgla - las zatrzymuje go o wiele więcej, niż pole kukurydzy lub rzepaku - to drugie skutkuje wzrostem cen żywności, boleśnie dotykającym tysiące ubogich. Niestety, na skutek lobbyingu producentów biopaliw i zapewne pełnych dobrej woli, lecz zaślepionych wrogów globalnego ocieplenia, jedno i drugie już miało miejsce.

środa, 24 czerwca 2009

Konsorcjum trzech wydziałów UJ - Matematyki i Informatyki, Chemii oraz Fizyki, Astronomii i Informatyki Stosowanej - znalazło się wśród zwycięzców konkursu na "kierunki zamawiane". Super, rewelacja, cieszmy się i weselmy, ale program ruszy tylko pod warunkiem zapisania odpowiednio dużej liczby studentów na I rok. Fizyka ma kłopot, bo rokiem bazowym, od którego liczy się "odpowiednio dużo", jest rok 2007/08, tymczasem w roku 2008/09 studia fizyki na UJ podzieliły się na fizykę i biofizykę. Całkowita liczba studentów pozostała bez zmian, ale to oznacza, że liczbę sudentów fizyki na UJ trzeba podwoić w stosunku do roku 2008/09. Cóż, cuda się zdarzają. Jedyną nie-cudowną możliwoscią byoby to, gdyby wszyscy ludzie, którzy wybierali się studiować fizyke na AGH lub Uniwersytecie Pedagogicznym (brzmi dumnie, nieprawdaż?) poszli na UJ, bo na UJ najlepsi mogą liczyć na wysokie stypendia (1000 PLN), a na tamtych uczelniach, które "kierunków zamawianych" nie zdobyły, nie.

Informatyka też ma kłopot, bo na UJ informatyki są dwie - na FAIS i na MII - obie mają status "zamawianych", obie niezależnie muszą zwiększyć liczbę studentów, więc będą ze sobą konkurować. Znów, jedyną szansą jest odpływ kandydatów z uczelni, które uczą informatyki, ale nie zdobyły statusu "zamawianego". W ogóle sama idea przekupywania kandydatów wysokimi stypendiami, żeby studiowali na kierunkach ścisłych i technicznych, jest chybiona w założeniu. Wysokie stypendia mogą co najwyżej powodować przepływy pomiędzy pokrewnymi kierunkami, natomiast nie zwiększą globalnej ilości studentów tych kierunków, a taki cel rzekomo miał ten program osiągnąć.

Przy tym prasa, jak to prasa, rozwodzi się głównie nad tym, kto kierunków zamawianych nie zdobył (AGH nie zdobyła, Politechnika Warszawska nie zdobyła, inne wielkie uczelnie nie zdobyły - czarna rozpacz). Uczelnie wygrane wymieniane są gdzieś pod koniec, drobnym drukiem. Najczęściej zresztą wymieniae są uczelnie na tyle dziwne - bo wśród wygranych są i takie - że poziom wykładanych przedmiotów budzi wątpliwości. Ale wśród wygranych jest i UJ, i UW, i UAM, i Politechnika Wrocławska - e, po co o nich pisać. To nieciekawe. News jest wtedy, gdy człowiek pogryzie psa, albo gdy konkursu o nauczanie informatyki nie wygra AGH, ale Wyższa Szkoła Czegoś Dziwnego.

Ja tymczasem zapraszam na stronę naszego Wydziału:

www.fais.uj.edu.pl

Pijcie mleko! Bevete piu' latte! Studiujcie kierunki zamawiane!

 
1 , 2