30.5.06

Pedeefki i metadane

Największym skarbem dla każdego naukowca (w szerszym tego słowa znaczeniu, czyli również dla filozofa) są artykuły naukowe. A artykuły naukowe to PDF-y. Zatem, najcenniejszą zawartością dysku naukowca (zaraz po jego własnych pracach) jest kolekcja artykułów, czyli tzw. pedeefki (doskonale to wie Wielki Człowiek ze Szczecina, który w chwili grozy wywołanej lekkim zwisem komputera często krzyczy ,,Moje pedeefki! Co się stało z moimi pedeefkami!'').

Niestety, wraz z upływem czasu kolekcja pedefków staje się coraz trudniejsza do wykorzystania. Kiedy plików jest 20, mniej więcej wiadomo, co w którym jest. Kiedy plików mamy 200, znalezienie interesującego nas pliku zależy przede wszystkim od szczęścia.

Jeszcze niedawno były jedynie dwie metody zaprowadzenia porządku w kolekcji pedefków, obie wymagające sporego wysiłku, druga większego niż pierwsza. Po pierwsze, można było starannie nazywać pliki i układać je w bardzo przemyślną strukturę katalogów, np. czasopismami, latami albo dziedzinami. Nie da się jednak przewidzieć, jakie kryteria wyszukiwania będą nas interesować, powiedzmy, za dwa lata. Można więc stosować drugą metodę, czyli oprócz przemyślnego systemu nazywania plików prowadzić bazę danych, gdzie artykuły są dokładnie opisane. Nie muszę mówić, że o ile już pierwsza metoda wymagała dużej samodyscypliny, o tyle druga jest po prostu diablo upierdliwa.

Ostatnio na całe szczęście sytuacja się zmieniła na lepsze. Acrobat Reader potrafi szukać pośród PDF-ów (aż dziwne, że dopiero teraz -- w końcu PDF to, upraszczając, skompresowany PostScript), Google Desktop Search wejdzie prawie wszędzie, a i dla Google Scholar PDF nie jest już nieprzenikliwy. A pod Linuksem Gnome Search coraz lepiej naśladuje Gógla.

Niestety, poprawa jest tylko pozorna. O ile nie ma problemu z przeszukiwaniem PDF-ów, które sami stworzyliśmy bądź ściągniętych ze strony domowej autora, o tyle wszystkie PDF-y ściągnięte z baz typu JSTOR to nic innego jak... skany z czasopism. A one, jako obrazki, powiedzą tyle naszej wyszukiwarce, ile nam skompresowany nieznanym algorytmem plik.

Czy jest jakieś rozwiązanie tego problemu? Ano, jest. Format PDF jest, wbrew pozorom, bardzo sprytnym formatem. PostScript, załączniki, obrazki... I, co nas najbardziej interesuje, metadane. Oznacza to, że do pliku można dołączyć informację opisującą informację, którą zawiera sam plik. Standardowe pola są dość oczywiste, i powinny nam akurat wystarczyć do opisania plików w sposób wyszukiwarko-przyjazny: autor, tytuł, krótkie streszczenie, słowa kluczowe... Zachęcony swym odkryciem, postanowiłem sprawdzić, jak opisane są dokumenty np. JSTORA. I tu pierwszy zgrzyt, bo one nie są w ogóle opisane. Byłem tez ciekaw, jak sobie radzą z tym problemem znajomi, więc przejrzałem metadane w PDF-ie z pracą magisterską Kuby Szymanika. Dowiedziałem się, że liczy sobie 42 strony i że jej tytuł bzmi C:/Documents and Settings/qba/Pulpit/semantyka algorytmiczna/pracka/pracka.dvi...

Dlatego postanowiłem opisać, co należy zrobić, aby z metadanymi pedeefków było dobrze :-)

Po pierwsze, istnieją kilka sposobów aby sobie przeczytać metadane pedeefka. Po pierwsze, możemy go otworzyć w Acrobat Readerze albo czyms podobnym i zrobić sobie File > Document Properties (lub po prostu Ctrl+D). Po drugie, przynajmniej w Gnomie, możemy sobie obejrzeć metadane we właściwościach pliku (choć widać je kiepsko, bo ich długość jest ograniczona). Po trzecie, możemy skorzystać ze specjalnych pakietów typu extract(1) albo pdftk(1). Oba są są Open Source, oba są spakietowane pod Debianem i Ubuntu, a pdftk ma jeszcze wersję łindołsową.

extract ma ambicję byc uniwersalnym narzędziem ekstrahującym różne przydatne rzeczy z plików. Potrafi nawet wyrzucić informację z PDF-a jako rekord BibTeX-owy. A przynajmniej potrafił do wczoraj, bo wypuścili nową wersję, która jest zepsuta (błąd już zgłosiłem).

pdftk z kolei to cały kombajn pozwalający nam na różne sztuczki z PDF-ami, który opiszę szczegółowiej poniżej. Jego obsługa jest dość toporna, ale całkiem prosto go zmusić do wypisania informacji na temat pliku:
bies@quine:~/Opole$ pdftk Dziobak.pdf dump_data
InfoKey: Creator
InfoValue: LaTeX with hyperref package
InfoKey: Title
InfoValue: Meaning, Hintikka's thesis, and computational complexity
InfoKey: Producer
InfoValue: pdfeTeX-1.21a
InfoKey: Author
InfoValue: Ryszard Szopa
InfoKey: Keywords
InfoValue: theory of meaning, P vs. NP, Hintikka's thesis, Edmonds' thesis
InfoKey: PTEX.Fullbanner
InfoValue: This is pdfeTeX, Version 3.141592-1.21a-2.2 (Web2C 7.5.4) kpathsea version 3.5.4
InfoKey: Subject
InfoValue: I discuss some natural language constructions that turn to be very difficult from the computational point of view and consider what this means for the theory of meaning.
InfoKey: CreationDate
InfoValue: D:20060528155926+02'00'
PdfID0: b159ce5e5e9d4ea86e562db5ccbefca0
PdfID1: b159ce5e5e9d4ea86e562db5ccbefca0
NumberOfPages: 8

Oczywiście najważniejszą kwestią jest metoda dodania metadanych do własnych plików. Jeżeli pracujemy w LaTeX-u, jest to banalnie proste. Wystarczy dodać w preambule następujące coś:
\pdfinfo
{ /Title (Moje arcydzieło)
/Creator (Ryszard Szopa)
/Author (Szopa, Ryszard)
/Subject (Krótko dowodzę jaki jestem fajny.)
/Keywords (pyszczki, szopa, fajni ludzie)
}
lub, jeżeli używamy pakietu hyperref,
\usepackage[pdftex,
pdfauthor={Ryszard Szopa},
pdftitle={Moje arcydzieło},
pdfsubject={Krótko dowodzę jaki jestem fajny.},
pdfkeywords={pyszczki, szopa, fajni ludzie}]{hyperref}

Tyle jeśli chodzi o ułatwianie życia innym. Najczęściej jednak będzie się zdarzać, że będziemy chcieli opisać cudze pliki, np. z JSTOR-a. I tu właśnie okazuje się niesamowicie przydatny pdftk. Jest to, jak już napisałem, cały kombajn. Potrafi nałożyć hasło na pedeefka, zdjąć hasło, każdą stronę zapisać w osobnym pliku, no i, wreszcie, zmieniać metadane. Jedyna wada jest to, że działa z linii komend i ma straszliwie ciemną składnię wywołania. Na szczęście, istnieje graficzna nakładka, czy też dwie, bo jedna w Perlu (dla Linuksa), a druga w VBScript (dla Łindołsa).

29.5.06

Zdjęcia ze zlotu

Filozofia.pl opublikowała zdjęcia z tegorocznego Zlotu. Jak zwykle w takich przypadkach, bez rewelacji, kilka zdjęć wydało mi się jednakże godnych uwagi.

Zdjęcia zrobione aparatem Julki z kolei są tutaj i tutaj.

27.5.06

o czynie społecznym, o seminarium i o spamie

Dzisiaj był dzień dość bogaty we wrażenia. Wczesnym rankiem (tak koło 10oo ;-)) zerwałem się, aby czym prędzej popędzić na Czyn Społeczny, czyli doprowadzenie ślicznego podwórka Instytutu Filozofii do stanu używalności. Obecnie (to znaczy, do dzisiaj) było to składowisko śmieci i gruzu. Od teraz, miejmy nadzieję, będzie to miejsce gdzie filozofowie będą mogli sobie wyskoczyć na fajkę i poczytać lekturę na ćwiczenia.

Do całej akcji przylgnęła nazwa Czyn Społeczny, ja sądzę jednak, że inna nazwa byłaby odpowiedniejsza: Budowanie Społeczeństwa Obywatelskiego. Oddolnie i własną inicjatywą (żeby nie powiedzieć przedsiębiorczością) zdobyliśmy nowe miejsce do siedzenia na przerwach. W każdym razie, abstrahując od nazewnictwa, pomysł zostało przyjęty przez sporą grupę studentów całkiem entuzjastycznie, niezależnie od opcji światopoglądowej.

Ja sobie nie pobudowałem zbyt długo, bo już o 12oo było seminarium (tzn. Forum Kognitywistyczne), więc skopawszy ze 12 m2 przyszłego trawnika udałem się do zakładu logiki.

Pierwszy referat nie został zrobiony nawet w połowie, więc nie mam co o nim pisać. Za to drugi, Łukasza Dębowskiego, bardzo mi się spodobał. Referent zastanawiał się, czy istnieją jakieś teorioinformacyjne właściwości (czyli na przykład złożoność Kołgomorowa etc.) tekstu sensownego. Intuicja mówi, że owszem -- zjawiska fizyczne powinny być albo bardzo regularne, albo zupełnie chaotyczne. W bardziej poetyckim ujęciu problem polega na tym, aby rozróżnić myśl od szumu za pomocą narzędzi matematycznych.

Jeśli chodzi o zastosowania, moga one być kosmiczne. Dosłownie. Pomyślcie o wielkich radioteleskopach nasłuchujących kosmos... Jeśli dałoby się faktycznie odkryć odcisk palca (ang. fingerprint: pozwolę sobie na określenie komputerowe) sensownego przekazu, mielibyśmy doskonałą metodę by stwierdzić, czy w ogóle warto marnować moc obliczeniową na próby rozszyfrowania szumu z kosmosu.

Mi oczywiście przyszły do głowy zastosowania dużo bardziej przyziemne, choć moim zdaniem co najmniej tak samo przyjemne (biorąc pod uwagę kosmiczne odległości, świadomość, że coś tam jest mogłaby być tylko bardziej frustrująca). Mianowicie, mam przeczucie, że spam jest nieco różny od zwykłych wiadomości pod względem zawartości informayjnej. Gdyby więc udało tę różnicę odnaleźć i wykorzystać ją do skonstruowania spamfiltra... (A góglowy spamfiltr tak słabiutko ostatnio działa -- zapewne stąd takie pomysły.)

Oczywiście, na razie są to marzenia małego zwierzątka w fabryce pizzy mrożonej. Wyniki zaprezentowane mówiły póki co o długości słów (czy też, konkretniej, pewnych powtarzających się sekwencji znaków). Czyli o tym, jakiej długości są te ,,słowa” i ile ich w tekście jest (dla niecierpliwych: ilość ,,słów” w tekście szacuje się jako nieco więcej niż c*n1/2). Nie jest to niby wiele, ale: lepszy rydz niż nic. Jak zaobserwował jeden z uczestników seminarium, można by to zastosować do pisma linearnego A. Nie pomogłoby to bezpośrednio w translacji, ale przynajmnie byśmy widzieli, jakiej długości słów się spodziewać.

Tym niemniej, jeśli chodzi o spam, sądzę, że w przyszłości można się wiele spodziewać po teorii informacji (bazy serwerów to nie jest najelegantsza metoda radzenia sobie ze śmieciami). Skoro da się wyczaić, czy księgi rachunkowe nie są oszukane (tzw. prawo pierwszych cyfr), jest nadzieja, że i na spamerów przyjdzie kryska.

Nie jestem specjalistą w dziedzinie teorii informacji, więc być może piszę jakieś głupoty. Bardziej zainteresowanym polecam zajrzeć (jako dobry początek) na stronę internetową Łukasza Dębowskiego.

22.5.06

Zlot Filozoficzny '06

Konferencje naukowe (nawet te studenckie) mają sporo zalet. Można poznać nowych ludzi, zobaczyć ciekawe miejsca, podlansować się za pomocą prezentacji... Ale przede wszystkim: pozwalają pojechać na małe wakacje z pełnym poczuciem, że jest się w pracy i że wypełnia się swój obowiązek. Kant tego nie przewidział. No i właśnie ostatnich kilka dni spędziłem całkiem nieźle się bawiąc na Zlocie Filozoficznym '06 w Opolu.

Już na samym początku bardzo mnie przyjemnie zaskoczyło to, że Opole jest bardzo ładne i przyjemne -- coś na kształt takiego większego Cieszyna (niech mi zarówno opolanie, jak i cieszynianie wybaczą). I choć miejscowi (a konkretnie: taksówkarz) narzekali, to jak na 120 tysięcy mieszkańców knajp było całkiem sporo (choć w nocy na ulicy żywego ducha, nawet w dresie, nie uświadczysz).

Zakwaterowani byliśmy w dość ekscentrycznym miejscu, mianowicie w Schronisku Młodzieżowym położonym gdzieś pomiędzy torami. Tak, dobrze zrozumieliście: pomiędzy torami. Jak się tam doszliśmy po raz pierwszy, byliśmy bardzo zdziwieni, że nie zabładziliśmy, bo okolica właśnie na to wskazywała -- tory, podkłady... Członkowie Klubu Miłośników Kolei z III LO w Gdyni byliby zachwyceni. Dziwności obrazu dopełniało położone po sąsiedzku Schronisko dla zwierząt.

Oczywiście, największym przeżyciem był mój własny referat. Choć subiektywnie rzecz biorąc poszedł mi lepiej niż w Szklarskiej Porębie, wciąż nie jestem do końca zadowolony ze swojego wystąpienia (wciąż za mocno przeżywam mówienie do mikrofonu). Jakby kogoś to interesowało, może zajrzeć sobie do slajdów.

Oprócz tego największe wrażenie zrobił na mnie Diderik Batens z Belgii. Mówił o logikach adaptatywnych, czyli (jeśli dobrze zrozumiałem) takich, które mają zaimplementowane mechanizmy usuwania jak najmniejszym kosztem sprzeczności. Są one o tyle ciekawe, że wydają się faktycznie opisywać proces ulepszania jakiejkolwiek teorii naukowej: gdy znajdujemy w naszej teorii sprzeczność, zazwyczaj nie wyrzucamy jej od razu do śmieci, ale staramy się wprowadzić jak najdrobniejsze poprawki które sprawią, że sprzeczności nie będzie. Więcej na Adaptive Logics Homepage.

Zaelektryzowała mnie też jego uwaga możliwości zastosowania (i mam tu na myśli zastosowanie w mocnym tego słowa znaczeniu -- w przemyśle, finansach etc. -- słowem, w prawdziwym świecie) logik parakonsystentnych (czyli takich, które nie boją się sprzeczności). Chodzi mianowicie o wszelakiego typu systemy eksperckie wnioskujące na podstawie bazy danych. Jeżeli zastosujemy w nich logikę klasyczną i natrafią one na sprzeczne dane (co w dużej bazie danych ma prawo się zdarzyć), ekspert generalnie przestanie zdãżać. Jakbyśmy z kolei użyli logiki parakonsystentnej, ekspert da sobie radę.

Oczywiście, nie jest chyba tak, że ludzie od baz danych są tacy tępi i wszystkie systemy eksperckie zwisają jak tylko natrafią na sprzeczne informacje. Tym niemniej, jakby do dokładnie przemyśleć i opracować z logicznego punktu widzenia, mogłoby to lepiej działać.

Na koniec udało mi się namówić towarzystwo na wycieczkę do Opolskiego Zoo, aby zobaczyć jedyne w Polsce goryle (które nb. przyjechały z Rotterdamu -- nie wiem, co o tym myśleć w kontekście wszechobecnych w Opolu ogłoszeń o pracy w Holandii... offset?). Oprócz tego widzieliśmy rysie, różne małpiatki, żyrafy, zebry, wilki grzywiaste, psy dingo... Było naprawdę super. Zdjęcia niebawem powinny gdzieś się pojawić.

(I gwoli uczciwości intelektualnej -- przyznaję, niedźwiedzie polarne są jednak niedźwiedziami. Ci co wiedzą o co chodzi, zrozumieją.)

18.5.06

Hevea

Bez dwóch zdań, TeX i LaTeX to najlepsza rzecz jaka przydarzyła się w dziedzinie programów komputerowych logikom i filozofom. Opowieści o kartkach wkręcanych do maszyzny do pisania do góry nogami aby zrobić znaczek kwantyfikatora to już tylko bajki do strasznie rozbrykanych studentów.

Tym niemniej format wynikowy LaTeX-a pozostawia trochę do życenia. Czytniki DVI nie są zbyt rozpowszechnione, a PDF-y mają to do siebie, że choć są ładne, są też ciężkie i powolne. Jesteśmy na nie skazani, bo jakolwiek konwersja np. do HTML-a powoduje albo utratę wszystkich znaczków, co większość prac logicznych pozbawi wartości, albo będzie się korzystać z formuł przerobionymi na obrazki, co ogólnie obsysa.

Tak mniej więcej myślałem aż do momentu, gdy odkryłem narzędzie o nazwie Hevea, które (w miarę bezstratnie) przerabia źródło TeX-a na HTML. Jest to możliwe dzięki dobrodziejstwu kodowania UTF-8, które zawiera takie bajery, jak ∀ czy ∃. Oczywiście, stracimy ładny TeX-owy skład wyrażeń matematycznych, ale za to możemy np. zaznaczyć formułę i wkleić do okienka Jabbera abo naszego ulubionego IM. Nie mówiąc już o przeglądaniu artykułów na słabych maszynach, takich jak mój laptop (16 MB RAM-u).

Program nie jest niestety do końca doskonały. Szczególnie kiepsko radzi sobie z pakietami AMS. Nie widzi na przykład żadnych linii oprócz pierwszejw multline. Miejmy jednak na dzieję, że z czasem to się poprawi.

A poza tym, Konrad Zdanowski pokazał mi dzisiaj swój dowód drugiego twierdzenia Goedla, który zajmuje (i to bez żadnych tricków ani skrótów) niecałą kartkę formatu A4. Korzysta głównie z pojęć teorii obliczalności i jest wyjątkowo przyjazny dla czytelnika.

16.5.06

Logika wolna w Wikipedii

Spełniłem zapowiedziany wczoraj dobry uczynek i napisałem hasło do Wikipedii na temat logik wolnych. Będę wdzięczny za wszelkie uwagi i komentarze (a i za poprawienie jakiejś literówki się nie obrażę).

(A hasłem angielskim zajmę się niebawem.)

Logika wolna - Wikipedia, wolna encyklopedia

Wolne logiki

Referatu na seminarium prof. Omyły i Ani Wójtowicz o wolnych logikach podjąłem się lekkomyślnie, nie zwracając specjalnie uwagi nawet na to, jaki tekst przyjdzie mi zreferować. Zgubiłem adres bibliograficzny ale umówiłem się z Omyłą, że sam znajdę jakiś odpowiedni tekst. Założyłem, że w dobie Internetu nie powinno być to trudne.

Niestety, założenie to boleśnie się sfalsyfikowało. Bogata zazwyczaj we wskazówki bibliograficzne Wikipedia dała ciała w całej rozciągłości. Hasło w Stanfordzie okazało sie nieklikalne... Jakieś tam artykuły udało mi się ściągnąć, ale te najważniejsze były w bazach dla mnie niedostępnych. Słowem, czarna rozpacz.

Na całe szczęście, bogowie najwyraźniej lubią cwaniaków. Pryncypał poprosił mnie, abym pomógł w zapoznaniu się z LaTeX-em prof. Krystynę Misiunę. A ona, jak się okazało, była interesowała się dość intensywnie logikami wolnymi. I przyniosła mi wielką kopertę tekstów związanych z Free Logic, z których części nie ma nawet w bazach. Byłem uratowany. Choć w końcu nie zdecydowałem się referować żadnego z tych tekstów, miałem (całkiem obszerny) punkt wyjścia. No i dowiedziałem się ciut lepiej, co to są te wolne logiki.

W zwyczajnej logice czynimy założenie, że nasza dziedzina nie jest pusta. Choć w większości wypadków jest to założenie jak najbardziej słuszne, można jednak wyczuć pewien nieprzyjemny posmrodek: logika nie powinna przesądzać o tym, czy coś jest. Dlatego (to jest pierwszy problem kluczowy dla logik wolnych) byłoby nam wszystkim bardzo miło, gdybyśmy posiedli logikę działającą zarówno dla pustych, jak i niepustych dziedzin.

Drugi z nich to dotyczy postępowania odnośnie do nazw typu pegaz, Thor albo Quetzalcoatl, które do niczego się nie odnoszą. Pewnym wyjściem jest teoria deskrypcji Russela, ale ona jest z wielu względów niezadowalająca. Trzeci problem to ustalanie wartości logicznych domknięć tautologii/kontratautologii nad dziedziną pustą (np. (x) [A(x) v ~A(x)] -- prawdziwe czy nie? Mostowski uznał, że fałszywe, reszta twierdziła zazwyczaj, że prawdziwe. A Strawson doszedł do wniosku, że takie zdania nie mają wartości logicznej).

Pierwsze próby w tym kierunku rozwiązania tych problemów poczynił w 1951 r. antenat Pryncypała, Andrzej Mostowski (On the rules of proof in the pure functional calculus of the first order, JSL 1951). System który wymyślił nie był jednak do końca elegancki, ponieważ zwykły modus ponens nie zachowywał prawdziwości i trzeba było nałożyć na niego ograniczenie. Później poszło już lepiej: Hailperin wymyślił lepszą aksjomatyzację (modus ponens działało tym razem normalnie), bawił się tym również Quine.

Do tej pory zajmowano się głównie pierwszym problemem. Później jednak dobrali się do wolnych logik bardziej filozoficznie nastawieni akademicy: Leonard, Lambert... Ten ostatni wymyślił nota bene termin free logic, jako zamiennik dla określenia logic free from existential presuppositions czy też ściślej logic free from some existential presuppositions. Nie da mu się jednak odmówić dobrze rozwiniętego zmysłu marketingowego.

Moim pierwotnym pomysłem było zreferowanie artykułu właśnie Karela Lamberta, o którym już pisałem. Ma on pewne zalety, np. jest dość zabawny. Niestety, jest on momentami niejasny, cholernie długi i, z formalnego punktu widzenia, niezbyt ciekawy. Dlatego rozpocząłem ponowne poszukiwania (tym razem już, na całe szczęście, dokładnie wiedziałem, czego szukam). Kolejnym typem był artykuł Lamerta i Meyera Universally free logic and standard quantification theory (JSL 1968), jednak ten również okazał się za długi i za trudny (nie wiem, czy publiczność dobrze by przyjęła dowody długi na dwie-trzy strony w czasopiśmie). Alternatywą był artykuł Ryszarda Mirka z Ruchu Filozoficznego, on jednak był krótki, przeznaczkowany i wprowadzał jednocześnie dwa osobne rachunki (ha-ha! dużo by publiczność z tego zapamiętała!).

Na całe szczęście udało mi się znaleźć świetny artykuł Jaakko Hintikki, Existential presuppositions and existential commitments (Journal of Philosophy, 1959). Po pierwsze, niezadługi, po drugie ciekawy, po trzecie wiąże wolne logiki z Tezą Quine'a (istnieć to być wartością zmiennej związanej), która to moim słuchaczom powinna być dobrze znana. Do tego kilka bardzo nieskomplikowanych dowodzików. Nic dodać, nic ująć.

I, last but not least, z artykułu Hintikki dowiedziałem się o istnieniu pana Richarda Whateleya (a właściwie Richarda Whately). Był dziewiętnastowieczny angielski logik, który wsławił się napisanie książki, w której dowodził jasno i ponad wszelką wątpliwość, że nie istniała taka osoba jak Napoleon Bonaparte (jeśli dobrze wyczułem, jest to subtelna drwina ze sceptycyzmu à la Hume). Ci co mnie znają wiedzą jak lubie takie smaczki.

[Zadanie na jutro: napisać porządnie hasło o wolnych logikach w obu wikipediach, polskiej i angielskiej. Bo to co jest jest do niczego.]

14.5.06

o seminarium i o starych hakerach

Siadam do tego posta po raz drugi. Gdy robiłem to po raz pierwszy, siadł na 5 sekund prąd, wyłączając mój komputer. Śpieszmy się zapisysywać posty, tak szybko odchodzą.

Dzisiaj odbyło się posiedzenie Forum Logicznego. Miałem jechać na inne forum, bo filozoficzne i to młodych na dodatek, uznałem jednak, że pozostanie w Warszawie będzie bardziej wzbogacające poznawczo.

Najpierw Konrad Zdanowski opowiadał o modelach skończonych, referując część wyników ze swojej pracy doktorskiej. Ku mojemu wielkiemu zdziwieniu, przez większość czasu towarzyszyło mi poczucie zrozumienia. Być może wynikło to z faktu, że ostatnio w różnych dziwnych kontekstach natrafiałem na modele skończone, więc byłem tym już do pewnego stopnia zaciekawiony i wiedziałem, czego można się mniej więcej spodziewać. Ale i tak poczułem się zaskoczony faktem, że w modelach skończonych, przeciwnie niż w normalnych, mnożenie jest mocniejsze od funkcji wykładniczej.

Następnie Pryncypał opowiadał o analizie bez aktualnej nieskończoności (Jan Mycielski, Analysis without actual infinity, JSL 1981). Tutaj już poczucie zrozumienia mnie opuściło (co najwyżej zaznawałem zrozumienia lokalnego). Sądzę jednak, że jest to z korzyścią dla mojego charakteru, ponieważ jakbym nagle wszystko rozumiał mógłbym popaść w nieuzasadnioną pychę. Nie zrozumiałem w każdym razie, o co chodzi z jakąś stałą \omega_p, gdzie p \in Q i to był główny problem... Z dumą jednak muszę zauważyć, że pewne intuicje z analizą bez aktualnej nieskończoności posiadałem, ponieważ dość podobny motyw występuje w jednej z moich ulubionych książek, w Euklides był osłem Stefana Themersona. Choć tam to było trochę inaczej rozwiązane. Zamiast robić z pierwiastka z dwóch liczbę wymierną, tam nie było prawdziwych kwadratów... Dodatkową atrakcją przy referacie Pryncypała był dobiegający z głównego dziedzińca Kult. Nie powiem, aby echo Królowej życia pomagało w koncentracji.

Wreszcie, przeżyłem dość duży szok. Wiązał się on z bardzo dużym czytelnictwem mojego bloga, a przynajmniej dużo większym, niż się spodziewałem w pewnych kręgach. W kręgach starych hakerów (teorii modeli, rzecz jasna).

Jak niektórzy być może pamiętają, trochę temu zdarzyło mi się zamieścić stronnicze sprawozdanie z poprzedniego posiedzenia forum. Opowiadałem tam między innymi o referacie Henryka Kotlarskiego. No i dzisiaj, jak wróciłem po przerwie, stwierdziłem Henryka Kotlarskiego przy komputerze, a na monitora komputera... mój własny blog! Zrobiłem szybki rachunek sumienia, czy aby nie napisałem czegoś, za co teraz przyjdzie mi beknąć (na szczęście, odpowiednia maszyna wypisała na taśmę jeden po czym się zatrzymała [dla niewtajemniczonych -- to oznacza nie]). Cała sprawa zakończyła się bardzo sympatycznie. Wniosek jest taki, że starych hakerów nie da się przechytrzyć. Nawet jeśli nie zostawiają komentarzy. (W tym miejscu pozdrawiam serdecznie wszystkich starych hakerów)

(A co do starych hakerów -- jest to określenie, które bardzo mi się narzuca w stosunku do Pryncypała i jego kumpli. Oni nawet wyglądają tak, jak człowiek sobie wyobraża hakera z ery PDP-11.)

Wreszcie, aby zakończyć, już po seminarium dowiedzieliśmy się od Pryncypała świetnego sposobu na myszy. Otóż, należy zwabić mysz na sznurek (np. taki do suszenia bielizny) rozwieszony od ściany do ściany, ogłuszyć ją szybkim ciosem linijką, po czym ogłuszoną wyrzucić z mieszkania. Tanio, bezkrwawo, skutecznie.

11.5.06

Trzy ciekawe strony

Dzisiejszy wpis będzie bardzo lakoniczny: zaprezentuję trzy ciekawe strony.
  1. Complexity Zoo -- strona, na której można znaleźć duuuuuuużo różnych klas w teorii obliczalności, wraz z krótkim opisem i referencjami. Szczególnie polecam NIQSZK. I dla purystów językowych albo też ludzi posługujących się chętnie językiem mówionym: nie, nie istnieje żadna oficjalna wykładnia czytania takich nazw. Powszechna metoda to literowanie (en-aj-kiu-es-zid-kej). Gorsza sprawa z nazwami z róznymi superskryptami etc., jak QACf0. Chyba tutaj nawet w komunikacji ustnej najprostsze będzie literowanie poleceń LaTeX-owych.
  2. The On-Line Encyclopaedia of Integer Sequences -- wpisuje się kilka liczb całkowitych, a oni wyświetlają różne ciekawe z punktu widzenia matematycznego ciągi, do których owe liczby należą. Jakby ktoś nie wiedział 1, 11, 111 i 1111 to pierwsze elementy repunits.
  3. Wreszcie, prawdziwy cymes. Strona z katalogiem on-line biblioteki instytutu filozofii UW. Wbrew pozorom to nie jest oczywiste -- na stronie internetowej link jest od dobrych kilku tygodni zepsuty. Nie musicie dziękować.
    [Poprawka późniejsza: link jest już naprawiony. Ale i tak zbyt mało popularny;-).]
Poza tym, powstało trochę nowych stron, o których nie warto wspominać. Na przykład nędzna próba Microsoftu dorównania scholar.google.com. Póki co academic.live.com słabo wyszukuje, a wyniki wyświetla, nie wiadomo dlaczego, po niemiecku.

7.5.06

Łańcusznik

Sorites (lub po polsku łańcusznik) jest to, jak poucza nas wielce uczony Doktor Gideon Burton z Brigham Young University w swym dziele silva retorica,
Concatenated enthymemes. That is, a chain of claims and reasons which build upon one another.
Słowo sorites pochodzi od greckiego słówka oznaczającego “stos”(a nie łańcuch), co dla mnie było dość zaskakujące. Być może wzięło się z wielkiej popularności paradosu stosu, który opowiadany był właśnie. Ilustracją sorites niech będzie następujący passus:
Stara się być rzetelny, więc czyta artykuły, które zamieszcza w bibliografii. Czytane artykuły też mają bibliografię, więc czyta artykuły w ich bibliografiach. Czyta artykuły w bibliografiach, więc dostaje kręćka. Dostaje kręćka, więc zajmuje się czymś mniej wymagającycm intelektualnie: pisze bloga.
Passus też całkiem nieźle ilustruje proces mojego pisania papieru na Zlot Filozoficzny w Opolu. W czytaniu artykułów z bibliografii raczej nie przekraczam drugiego-trzeciego poziomu, bo później następuje naruszenie ochrony pamięci ;-). Ciekawe jednak, co by było, gdyby ten proces się wywoływał rekurencyjnie. Większość artykułów cytuje jedynie starsze artykuły, a jakbyśmy się cofali w czasie, to mielibyśmy dostęp do coraz mniejszej ilości opublikowanych artykułów.

Zastanawiam się, dokąd (zaczynając, powiedzmy, od artykułu, który właśnie piszę) byśmy doszli. Do małej grupy tekstów bazowych? A może w ogóle do jednego, wielkiego tekstu (jak chciałby Themerson w książce ,,Euklides był osłem”)?

A wracając do mojego artykułu -- nie jest do końca dobrze. Zdałem sobie sprawę, że raczej nie ma sensu próbować opowiedzieć na zlocie wszystko, co sobie założyłem. Lepiej się ładnie nauczyć opowiadać, co to jest niedeterministyczna maszyna Turinga (przyda się).

4.5.06

Filoskotynia...

...czyli dlaczego pewien podział jest skończony jako instytucja (z pozdrowieniami dla Teodora W. Adorno).

Endemiczną tradycją Instytutu Filozofii UW jest zażarty, toczący sie od zarania dziejów (jakby powiedział profesor Pluszowa Zabawka) spór między tzw. filozofią analityczną a tzw. filozofią nieanalityczną. Nieznane jest pochodzenie zażartości tego sporu. Być może pewien wpływ ma podział Historii Filozofii Współczesnej na analityczną i nieanalityczną właśnie. Ewenementem jest na pewno, że student pierwszego roku ma duże szanse być poproszonym o zdeklarowanie się po którejś ze stron i to, po której stronie się opowie, może mieć istotny wpływ na jego przyszłą pozycję towarzyską.

Dyskusja przyjmuje zazwyczaj postać dość przewidywalną. I tak, wiadomo, że filozofowie nieanalityczni są mętni, uprawiają hochsztaplerkę intelektualną i w ogóle zajmują dyrdymałami. Nieanalityk z kolei będzie się bronił, że to właśnie analitycy zajmują się pierdołami i nie mają wglądu do głębi, czymkolwiek owa głębia miałaby być.

Kłótnia metafilozoficzna jest moim ulubionym sportem i niektórzy mnie znają jako walecznego obrońcę nurtu analitycznego. Ostatnio jednak, po dyskusji z Zubilem i Agatą, zaczęły mnie nachodzić pewne wątpliwości. Mianowicie, na tzw. filozofii nieanalitycznej prof. Pluszowej Zabawki omawialiśmy (o paradoksie!) Poppera. Co więcej, po raz pierwszy w trakcie moich studiów coś, co nie byłoby pierwszym rozdziałem Logiki odkrycia naukowego (jak się ten sam tekst omawia po raz piąty, można się porzygać, mimo całej sympatii wobec Karla Raimunda). Z kolei na tzw. filozofii analitycznej u Dziobaka omówiliśmy Rorty'ego, którego pewne tezy wywołują, przynajmniej u mnie, grymas zniesmaczenia. Nie chcę już nawet wspominać o pewnych analitykach, których książki lądują w dziale geodezja... To było primo. A secundo, nie wszystko to, co ewidentnie jest nianalityczne nadaje się automaytcznie do kosza. Choćby Nietzsche albo Husserl. Albo Alexius Meinong, którego nie bardzo wiadomo jak zakwalifikować.

Mimo wszystko, coś jednak jest na rzeczy. Nie da się ukryć, że pewien rodzaj pokrętnego srumdudrumdu dużo prędzej spotkam u krewnych-i-znajomych Foucaulta niż, powiedzmy, Quine'a...

Jako rozwiązanie moich wątpliwości pojawiła się myśl następująca: to, co mnie irytuje w pewnych tekstach nazywanych filozoficznymi nie bierze się wcale stąd, że owe teksty są nieanalityczne. To po prostu... nie jest już filozofia! Całkiem dobrze to, o co mi chodzi oddaje anglosaski żart: What is continental philosophy? An oxymoron.

Do tej pory trudno mi było tę myśl wyrazić, nie posiadałem bowiem słowa, którym mógłbym to nazwać. Jednak dzięki konsultacji z Panakossem obecnie odpowiednią nazwą dysponuję. Otóż, proszę państwa, to czego nie cierpię, a czego przykładem niech będzie Baudrilliard, jest po prostu filoskotynią, czyli z grecka: umiłowaniem ściemniania (za etymologię niech ręczy swoim autorytetem Mister Koss).