2013. augusztus 16., péntek

Természettudományos vs filozófiai matematika

Kialakulásakor a (modern) természettudományokat a matematika analógiájára képzelték el (sőt, Spinoza például még az etikát is tételekre és bizonyításokra próbálta visszavezetni). De mi lenne, ha fordítanánk egyet a dolgon, és most a matematikát próbálnánk a modern természettudományok mintájára elképzelni?
A matematika eddigi története jó közelítésben három fázisra osztható.

  • Az elsőben a matematikai „tényeket” (mint amilyen az is, hogy a háromszög szögeinek összege 180 fok) abszolútnak és megkérdőjelezhetetlennek tekintették.
  • A másodikban (a nem eukleidészi geometriák megjelenését követően) Dedekind és Weiterstrass a geometria helyett az aritmetikát választották a matematika alapjául. Ezzel párhuzamosan az „abszolút igazság” helyett az ellentmondás-mentesség vált elvárássá.
  • És bár Gödel óta senki sem hiszi, hogy ez maradéktalanul megvalósítható lenne a matematikán belül, a szám (és ezen belül is a természetes szám) fogalma továbbra is kitüntetett maradt a matematika megalapozására tett kísérletekben.

Tehát nem ártana némi figyelmet szentelni annak a látszólag triviális (és látszólag legfeljebb a filozófusokat érdeklő) kérdésnek, hogy ha már aritmetikáról beszélünk, akkor miért igaz az, hogy 7+3=10.
Frege erre azt válaszolja, hogy „Akárki beláthatja, hogy 7+3=10. Efelől nem lehet kétség. Ez nyilvánvalóan valóságos a priori [eleve adott], most és mindörökké, biztosan és kétségbevonhatatlanul.”
Ami természetesen platonista megközelítés, és aki nem hiszi (mint ahogy én például nem), hogy a matematikai objektumok valamiképpen „létezőek”, és mi nem kitalálunk, hanem csupán felfedezünk (megtalálunk) összefüggéseket, annak ez nem lesz elfogadható érvelés. Ugyanis ha Frege azt állítja, hogy szerinte a priori, akkor ezzel ugyanilyen joggal azt szegezhetem szembe, hogy szerintem viszont nem. Értsd: valójában nem érvelést, hanem állítást hallottunk, amit aztán vagy elfogadunk, vagy nem.
Viszont John Stuart Mill azt mondja, hogy azért lehetünk benne biztosak, mert számtalanszor volt alkalmunk megfigyelni, hogy hét almához (körtéhez, bármihez) hozzáadva további hármat egy tíz elemből álló halmazt kapunk. Értsd: tapasztalati tény. És ezen a ponton tegyünk egy látszólagos kitérőt azzal kapcsolatban, hogy L. J. Brouwer intiucionista matematikus szerint nem igaz a kizárt harmadik elve, vagyis: nem igaz, hogy minden valós szám vagy pozitív, vagy negatív, vagy nulla.
Ugyanis megtehetjük azt, hogy elkezdünk egy olyan részt keresni a pi számjegyeiben, ahol egymás után 100 darab nulla áll, és ha ez a sorozat páros pozícióban (mondjuk a 94. helyen) kezdődik, akkor a 95. helyre írjunk egy 1-est, és ezzel zárjuk is le a sorozatunkat. Az így kapott szám (amely nagyobb, mint a pi) a pi^. Ha a 100 darab nulla kezdete páratlan helyre esik, akkor ne adjunk hozzá semmi,t hanem álljunk meg – ez esetben a pi^kisebb lesz, mint a pi. A kérdés persze az lesz, hogy mekkora a pi^-pi (amelyet Q-val szokás jelölni): ez egy pozitív szám; negatív vagy éppen 0 (amennyiben nincs olyan hely, ahol a pi-n belül egymás után 100 nulla követné egymást).
Brouwer felfogása szerint – írja Reuben Hersh A matematika természete című könyvben – „a három közül egyik sem igaz! Q vagy pozitív, vagy negatív, vagy zérus lesz, mihelyt valaki meghatározza, hogy melyik eset áll fenn”, addig azonban sem ez, sem az.
És itt vissza is kanyarodhatunk Millhez, ugyanis ha a 7+3=10-et a tapasztalat igazolja, akkor a matematikára is ugyanazok a szabályszerűségek érvényesek, mint a tapasztalati tudományokra. Ott viszont – miként ez Hume óta tudott – mindig fennáll valamennyi bizonytalanság, hiszen véges számú megfigyelés révén nem juthatunk bizonyossághoz. A klasszikus példa szerint akármennyi hattyút figyelünk is meg, soha nem lehetünk benne biztosak, hogy a „minden hattyú fehér” szabály tényleg igaz, hiszen az elvi lehetősége mindig fennáll, hogy felbukkanjon egy fekete. Amivel nem azt akarom mondani, hogy kételkedjünk abban, hogy hét meg három tényleg tíz lesz, hanem csupán azt, hogy vegyük észre, hogy ha elkezdjük a matematikát a természettudományokhoz hasonlóan kezelni, az felettébb érdekes következményekkel jár.
Természetesen vannak kérdések, amelyekre pontosan és megbízhatóan tudunk válaszolni (ilyen pl. a 7+3 összege is). Ebben az esetben a józan ésszel ellenkezne arra számítani, hogy meglepetés fog minket érni (az pedig más kérdés, hogy ez a „józan ész” a minket körülvevő szilárd dolgokon alapul. Ha kavicsok helyett mondjuk homokkupacokat használtunk volna a számoláshoz, az egészen más számkoncepcióhoz vezethetett volna).
És hogy mi a helyzet „az eukleidészi síkgeometriában a háromszög szögeinek összege 180 fok” típusú kijelentésekkel? Amelyekre ez igaz lenne, platóni ideális háromszögek lennének – márpedig ez csupán absztrakció: ilyen háromszögek nem léteznek. De attól jó közelítéssel elfogadhatjuk a 180 fokot. Ami persze nincs összhangban a jelenlegi matematikai felfogással, ahol abból szokás kiindulni, hogy a pi akkor is létezik, ha soha nem leszünk képesek megadni a pontos értékét.
Hogy tovább bonyolítsam a dolgot, ott vannak aztán a Q-hoz hasonló matematikai objektumok, melyekről nem tudjuk megmondani, hogy léteznek-e. És persze elképzelhetőek például olyan nagy számok is, melyekkel egyszerűen nem tudunk mit kezdeni, mert ha számjegyeik mondjuk homokszemek lennének, akkor szorosan kitöltenék az egész ismert Univerzumot –mi pedig talán sosem fogunk akkora számítási kapacitással rendelkezni, amely lehetővé tenné, hogy egy ilyenről eldöntsük, hogy prímszám-e, ha 7-re végződik. De ha egyszer a távoli jövőben mégis rendelkeznénk, akkor is könnyen kitalálhatnánk olyan nagy számokat, amelyeket nem tudunk kezelni. Ez nem pontosan ugyanaz, mint a Q, ahol lehet, hogy azért nem kapunk soha választ a kérdésünkre, mert a pi számjegyeit vizsgálva soha nem fogunk olyan helyet találni, ahol 100 darab nulla követi egymást (de attól még elképzelhető az is, hogy van egy ilyen rész valahol meg az is, hogy nincs). Itt a kérdés elvileg ugyan biztosan eldönthető (elvégre elvileg meg tudjuk állapítani az adott számról, hogy csak eggyel és önmagával osztható-e), gyakorlatilag viszont nem, és innentől kezdve egy „természettudományos matematika” nem is fog foglalkozni ezzel. Elvégre a jelenlegi szerint a tudomány kizárólag olyan kérdéseket tehet fel, melyek kísérleti úton ellenőrizhetőek és megcáfolhatóak. A többi a filozófiára, vallásra stb. tartozik. Gyakorlati szempontból (bármit jelentsen is ez) például teljesen mindegy, hogy létezik-e páratlan tökéletes szám, miután 10^300-ig egyet sem találtunk.: nem valamiféle fontos kérdés, hanem legfeljebb egy lábjegyzetre méltó érdekesség (elvégre nem szigorú bizonyításokat, hanem használható eredményeket akarunk). Ami egyfelől azt is jelenti, hogy bár a matematikától hagyományosan elvárt teljes bizonyosság nélkül, de számos olyan eredmény elérhetővé válik a számunkra, amely korábban nem.
Másfelől ennek persze ára van. Innentől kezdve például a megszámlálható és megszámlálhatatlan végtelenek kérdése is (ld. Cantor) kívül fog esni a „természettudományos matematika” illetékességén. Amivel nem azt akarom mondani, hogy dobjunk ki mindent, amihez nem juthatunk el véges sok lépésben (mint ahogy Brouwer egyébként ezt tartotta volna üdvözítő megoldásnak), hanem azt, hogy innentől kezdve érdekes lenne a mostani matematikát két részre osztani: a „természettudományosra” meg a „filozófiai matematikára” (nevezzük talán így), ahová Cantor is tartozna. Elvégre két különböző dologról van szó.

2013. augusztus 2., péntek

Mindörökké geometria?

Felix Kelin német matematikus 1872-ben arról beszélt, hogy a különböző geometriákat az alapján lehet csoportosítani, hogy milyen transzformációkat engednek meg – és ez aztán elvezet további kérdésekhez is.
De hogy az elején kezdjem: ami például asz eukleidészi geometriát illeti, ott eltolhatunk egy háromszöget, és eközben nem változnak meg a szögei vagy az oldalainak a hosszúsága. A topológia pedig úgy írható le, mint ahol a homeomorfizmusra nézve változatlan tulajdonságokkal foglalkozunk. Értsd: mintha csak egy gumilepedőre lenne rárajzolva az egész, és kizárólag az számít, ami a nyújtások és hajlítások ellenére megmarad. Ezért szokás némileg ironikusan azt mondani, hogy a topológus az a matematikus, aki nem tudja megkülönböztetni a fánkot a kávés csészétől.
Ami azonban nem jelenti azt, hogy Klein programjával már minden lehetőséget kimerítettünk volna. Amikor Eukleidész arról beszél, hogy melyek azok a tulajdonságok, melyek megmaradnak a háromszög odébb tolásával (elforgatásával stb.), akkor ki nem mondva bár, de azzal a feltételezéssel él, hogy a tér mindenütt ugyanolyan. Ami másként fogalmazva azt jelenti, hogy „ha létezik olyan tér, amelyben a párhuzamossági axióma nem áll fenn, akkor ott nem léteznek hasonló háromszögek”, állapítja meg Mlodinow a geometria történetéről írva. Márpedig a nem eukleidészi geometriáknál ez a helyzet.
De felvethető az is, hogy miért is lenne (egy képzeletbeli) tér nem csupán nem eukleidészi, hanem nem lépték-független is. A Riemann-geometriában minél kisebb egy háromszög, annál inkább hasonlít az eukleidészihez – és minél nagyobb, annál inkább eltér tőle. De azért értelemszerűen ugyanaz a geometria írja le a kis meg a nagy háromszögeket is – viszont mi lenne, ha eljátszanánk egy olyan geometria ötletével, ahol a különböző méretekhez/nagyságrendekhez különböző jellegű geometriák társulnak még akkor is, ha amúgy a térrel kapcsolatban természetesnek érezzük, hogy kicsiben és nagyban ugyanolyan a szerkezete? Egy nem feltétlenül pontos hasonlattal élve: az a szakasz, amely távolról nézve vastagság nélkülinek tűnik a monitoron, közelről pixelekre esik szét.
És vannak általánosabb kérdések is a geometriával kapcsolatban.
Először is: a 19. századig a geometria számított a matematika „alapjának”, de a nem eukleidészi geometriák felfedezését követő válság hatására a 20. század elejére úgy tűnt, hogy az aritmetikából kell kiindulni. A Brouwer-féle intuicionizmus például Kronecker nyomdokán haladva a természetes számokat tekintette adottnak, és eközben bár elutasította a nem eukleidészi geometriák ismeretében Kantnak a geometria a proiri (eleve adott) voltára vonatkozó elképzelését, azt a kanti elképzelést megtartotta, hogy a számolás és a szám (az aritmetika) a priori adott, és mint ilyen az idő egymás után következő eseményein alapul.
Mi viszont, amennyiben nem fogadjuk el az aritmetika a priori természetére vonatkozó elképzelést (mint ahogy én sem teszem), nem csak azon töprenghetnénk el, hogy vajon milyen más számfajtákból indulhatnánk ki, de azon is, hogy vajon a matematika fejlődésének egy későbbi fázisában nem fogunk-e visszatérni valamilyen geometriai megalapozáshoz? Vagy nem fogunk-e valamilyen teljesen más megoldást választani? Az a modern logika, melyről aztán Russel azt állította, hogy teljes egészében lefedi a matematikát, csupán a 19. század végére, Frege után jelent meg.
És még egy lépéssel tovább menve: Ian Stewart azt mondja, hogy „a matematikai érvelésnek két fő típusa van: a szimbolikus és a vizuális. A szimbolikus érvelés a számjegyek világában gyökerezik”, míg az előbbi a geometriainak feleltethető meg. De ha nem ezen felosztás szerint közelítenénk a matematikához, akkor hogyan máshogy tehetnénk?

2013. július 28., vasárnap

Barbie és a nem szorosan csatolt matematikák

Néhány éve kaphatóak voltak olyan beszélő Barbie-babák, amelyek repertoárjába annak a hangoztatása is beletartozott, hogy „a matematika nehéz”. Ami viszont akkora felháborodást váltott ki (gondolom, leginkább a lányos szülők körében), hogy a gyártó cégnek végül törölnie kellett a kérdéses kijelentést a repertoárból – de azért valószínűleg senki sem tételezi fel, hogy a matematika könnyű lenne.
Keith Devlin amerikai matematikus amellett érvel A matematikai gén című könyvében, hogy „a nyelv és a matematika képessége nem elkülönültek: mindkettőt az emberi agy ugyanazon tulajdonságai tették lehetővé” még akkor is, ha az előbbinek nagyságrendekkel hosszabb története van, mint az utóbbinak. Ugyanis miközben a nyelv legalább év tízezredek óta velünk van, a matematika kezdetei valamikor a neolitikus forradalmak idején jelennek meg, és mint nem csupán számolás (amit gyakran össze szoktak téveszteni a matematikával) mindössze kb. 2500 éve létezik – vagyis evolúciós léptékkel mérve alig egy szempillantásnyi ideje. A kérdés tehát egyfelől az, hogy miért olyan nehéz a számunkra(mint ahogy a Barbie-babák is állították); másfelől, hogy miként lehetne másképp csinálni. Úgy, hogy könnyebb vagy éppen más legyen.
Az elsőre Devlin azt válaszolja, hogy a nyelv alapvetően a társadalmi kapcsolatok leírására és kezelésére jött létre: ezért is vonzódunk annyira az ezekkel kapcsolatos narratívákhoz (a pletykához, ha így jobban tetszik), és a hírek, könyvek, cikkek, filmek és bármik többsége ezért is arról szól, hogy mi történik két vagy több ember között. Érdemes megfigyelni, hogy mennyivel könnyebben jegyzünk meg egy pletykát, mint egy tudományos összefüggést. És hasonlóképpen: bár kimondottan tudományos érdeklődésűnek tartom magam, még én is könnyebben kikapcsolódom egy jó regénnyel a kezemben, mint egy elmélyült tanulmánnyal az ókori görög számfelfogás püthagoraszi alapjairól, bármennyire is érdekel különben a kérdés.  „Nincs vizuális képem a piről”, jegyzi meg Devlin, „miközben van egy regény szereplőjéről.”
De ez nem meglepő. Mondhatni, evolúciós múltunk miatt tűnik számunkra érdekesebbnek (és ami még fontosabb: élet közelibbnek és elképzelhetőbbnek) az ember, és jó lenne tudni, hogy elvileg lehettünk volna-e sokkal kevésbé ember- és társadalom-, illetve sokkal inkább természeti jelenség centrikusak (szerintem nem, de lehet, hogy tévedek). Továbbá: az akár evolúciós mércével is távoli jövőben megtörténhet-e az, hogy mivel már nem lesz olyan nagy adaptációs értéke, hogy állandóan a többiekkel foglalkozunk, ezért mondjuk egy véletlen genetikai sodródás eltávolít-e ha nem is mindenkit, de legalább egyeseket ettől (szerintem lehetséges, de persze lehet, hogy ez esetben sincs igazam).
Devlin mindenesetre úgy véli, hogy mint ahogy a nyelv az emberek közötti kapcsolatok leírására szolgál, a matematikának az absztrakt fogalmak közötti kapcsolatok leírása a célja. Értsd: lényegében egyfajta, az absztrakciók kezelésére kitalált „metanyelvvé” vált mostanra. Márpedig ismét csak vadászó-gyűjtögető múltunk miatt ez egyszerűen idegen tőlünk: annak idején nem függött a túlélésünk az olyan elvont fogalmak megértésétől és kezelésétől, mint amilyen a Cantor-féle kontinuum-hipotézis.
Ami viszont azt jelenti, hogy ellentétben mondjuk a zenei képességekkel, ahol vannak Mozartok és botfülűek is, itt mindenki az utóbbi kategóriába tartozik, és ennek megfelelően „a matematika iránti érdeklődés jelenti az alapvető különbséget azok között, akik értik és azok között, akik nem boldogulnak vele”, írja Devlin. Vagyis bárki lehetne jó matematikus, ha lenne hozzá kedve és türelme, mert ezen a pályán senki sem indul előnnyel.
És hogy akkor miért állítja az emberek nagy része, hogy „a matematika nehéz”?
Egyfelől természetesen fentebb már említett absztrakt mivolta miatt. Az anyanyelvünket könnyen elsajátítjuk, és később is képesek vagyunk (nagyjából ugyanannyi idő: néhány év alatt) egy újabb nyelvet megbízhatóan elsajátítani egy idegen országban élve. Mivel azonban matematikaország nincs, ahol letelepedhetnénk, ezért nagyjából abban a helyzetben vagyunk, mintha egy, a miénktől teljesen eltérő nyelvet (mint amilyen mondjuk a mesterségesen létrehozott lojban) kizárólag egy nyelvtankönyvből meg egy szótárból próbálnánk megtanulni. Ami azért rettenetesen nehéz.
Ráadásul a matematika még ennél is nehezebb, ugyanis szorosan csatolt. Ha egy idegen nyelv megtanulásakor nem értünk meg egy nyelvtani szabályt, akkor lehet, hogy bizonyos esetekben hibás (sőt, érthetetlen) lesz, amit mondunk, de általában azért kisebb-nagyobb hiányosságok mellett is tudunk kommunikálni. Képzeljünk azonban el egy olyan nyelvet, ahol amennyiben nem tudjuk megfelelően használni a határozott névelőt, akkor sem az igeragozással, sem a többes számmal stb. nem fogunk boldogulni – és lényegében ilyen a matematika. A következő lépés mindig az előzőből vezethető le, és aki egyetlen fokot kihagy vagy nem ért, az képtelen lesz tovább menni. Ugyanis éppen ez a szigorú logika a jelenlegi matematika egyik meghatározó tulajdonsága.
Devlinnek abban minden bizonnyal igaza van, hogy a nyelvet és a matematikát „az emberi agy ugyanazon tulajdonságai tették lehetővé”; ez azonban nem jelenti azt, hogy csupán ez a két absztrakt rendszer lenne elképzelhető. Értsd: kíváncsi lennék, hogy újabb tízezer év múlva milyen olyan, teljesen új és számunkra még elképzelhetetlen területek alakulhatnak ki, mint amilyen a vadászó gyűjtögetők egyszerű számolásához képest a mai matematika?
Az pedig még ennél is izgalmasabb, hogy vajon nem lehetne-e olyan matematikát kidolgozni, amely nem olyan szorosan csatolt, mint a mostani, hanem inkább olyan, mint a nyelv, és ennek megfelelően sokkal könnyebben boldogulnánk vele? Sőt, esetleg olyan dolgokra is képesek lehetnék a révén, amire így nem.
És ez annál is inkább megfontolásra érdemes felvetés, mivel a görögöktől a reneszánszig kétféle megközelítés volt ismert, mondja Reuben Hersh A matematika természetéről írva. A szintetikus az eukleidészi, ahol az axiómákból kiindulva, dedukcióval vezetjük le a tételeket. Az analitikusnál viszont a problémát tanulmányozva („analizálva”) keressük a megoldást és ezért is nevezték ezt analitikus (ma inkább problémamegoldó vagy heurisztikus) felfogásnak, és csak „a 19. és 20. század ’fundamentalista’ iskolái [azok, melyek] a matematikát azonosítják a szintetikus módszerrel”, jegyzi meg Hersh.
Viszont egyáltalán nem szükségszerű, hogy a jövőben is így legyen.

2013. július 20., szombat

Miért fontos a platonizmus?

Platón
A matematikafilozófia problémáit mintegy matematikán kívül állónak szokás tekinteni, elvégre – hangzik a szokásos érvelés – teljesen mindegy, hogy valaki azt gondolja-e, hogy a számok valamiképpen tényleg léteznek, vagy pedig azt, hogy önmagukban üres és jelentés nélküli szimbólumok. Elvégre így is, úgyis ugyanazokat a bizonyításokat fogjuk érvényesnek tartani. Csak éppen miként Stephan Körner a matematikafilozófiáról szóló tanulmányában megjegyzi, egyes filozófiai kérdések „matematikai problémák felvetéséhez és a matematika olyan új ágainak kialakulásához vezettek, mint a nem-euklideszi geometriák és a matematikai logika absztrakt algebrái”. Mivel a matematika adja meg azt az értelmezési keretrendszert, melyen keresztül magát a matematikát és céljait, módszereit stb. meghatározzuk, egyáltalán nem mindegy, hogy kezdetben milyen filozófiai felfogás volt a meghatározó.
Az például meglehetősen új keletű, a 19. század második felében, Boole-lal, Fregevel és Pierce-szel meg a halmazelmélettel együtt felbukkanó értelmezés, amely „közeli kapcsolatot” tételez fel a matematika és a logika között. Vagyis bár nekünk teljesen természetesnek tűnik a kettő összefonódása, a múltban egyáltalán nem mindig volt az, és igencsak kíváncsi lennék, hogy a jövőben mi lesz a helyzet – és esetleg olyan, egyelőre függetlennek tekintett diszciplínák lesznek-e a matematikára alapvető hatással, amelyekre egyelőre nem is gondolunk.
A logikával való románcnak mindenesetre az is a következménye volt, hogy korábban nem létező, új típusú matematikafilozófiai felfogás alakult ki. A 19. századig uralkodó platonizmus szerint a matematikus lényegében olyan, mint egy geológus, aki valamiképpen létező dolgokat tanulmányoz, és ennek megfelelően nem is kitalál, csak felfedez. Az alap az a platóni felfogás volt, mely szerint a valóságot és a látszatot meg kell különböztetnünk, és persze mindaz, amit látunk és érzékelünk, az utóbbi kategóriába tartozik (ld. Platón barlanghasonlatát). Viszont ez alapján azért következtetni tudunk a „valóságra”: a konkrét asztal csak mintegy az „asztal ideájának” a megjelenése, és ugyanígy sőt, még ígyebbül van a matematikával is. A matematikus ugyan sosem fog „igazi háromszöget” látni, de a konkrét geometriai alakzatokból következtethet a valóban létező, ideális háromszög tulajdonságaira – mint amilyen például az is, hogy a szögei összege 180 fok. Vagyis innentől kezdve a platonista matematika-felfogás arra fókuszál, hogy milyen módon léteznek a matematikai objektumok, és „az aritmetika meg a geometria állításai szükségképpen igazak, mivel változatlan objektumok közötti változatlan viszonyokat írnak le” (hogy ismét csak Körnert idézzem).
A logikai alapú megközelítések viszont, elutasítva a platóni tanítást, nem indulhattak ki a szükségképpen létező matematikai igazságból, tehát az ellentmondás-mentességet választották kritériumul. Valószínűleg nem véletlen, hogy éppen a platonista Gödel bizonyította be ennek a lehetetlenségét az aritmetikára nézve, amennyiben teljes indukciót használunk. Az pedig más kérdés, hogy Gerhard Gentzen később bebizonyította, hogy amennyiben a megszámlálható számosságúaknál nagyobb, végtelen számosságokra épülő, ún. transzfinit indukciót használjuk, amelynek így a „hagyományos” matematikai indukció csupán egy alesete, akkor „ez a módszer lehetővé teszi az aritmetika minden igazságának dedukálását”, mondja J. D. Barrow (a Pi in the Sky című könyvében). Viszont „nem teszi lehetővé a teljes matematika minden igazságának dedukálását, mivel ez utóbbi olyan igazságokat tartalmaz a végtelenekről, melyek igazsága vagy hamissága nem mutatható ki a rendszer logikai masinériáját használva”. A Gödel-problémákra egy későbbi bejegyzésben még visszatérek, tehát egyelőre legyen annyi elég, hogy a logikai alapú felfogások, miközben feladták az igazságot mint kritériumot, nem voltak képesek az ellentmondás-mentességet sem elérni. Viszont eközben már nem a matematikai objektumok létére vagy nem létével foglalkoztak, hanem azzal, hogy milyen tulajdonságokkal kell a matematikai rendszereknek rendelkezniük, és eközben persze végtelenül sok matematika lehetséges. Ugyanis nem kritérium, hogy bármilyen formában az igazságra, vagy ha úgy jobban tetszik, akkor a valóságra vonatkozzon, és ezért is beszél Stanislaw Lem a matematika analógiájaként arról az őrült szabóról, aki minden létező és nem létező teremtmény számára ruhát varr – aztán majd hátha lesz valaki, aki fel is tudja venni.
És ez bizony elég nagy váltás az „igazságon alapuló” korábbi felfogáshoz képest.
Viszont bár a platonizmus mostanra nem látszik védhetőnek, elvégre miért is tételeznénk fel, hogy a tapasztalhatón túl ott vannak holmi formák vagy ideák, azt, hogy milyen elvárásaink vannak vele szemben, és általában véve is milyen természetűnek tekintjük a matematikát, még mindig a platonizmus határozza meg. Még mindig az a bevett felfogás ugyanis, hogy a kiindulási pont az ideális alakzatokkal és formákkal foglalkozó „tiszta” matematika, és aztán ennek – vagy legalábbis egyes részeinek – a minket körülvevő valóságra való alkalmazásával juthatunk el az alkalmazott matematikához. A valóság azonban – nem különösebben meglepő módon – nagyon is más, mint amit a matematikakönyvek leírnak és megengednek, és aki kételkedne ebben, az próbáljon mondjuk egy A4-es papírlapot hétnél többször összehajtogatni. Értsd: ha a görög matematika kezdeteinél nem a paltonista felfogás bábáskodott volna, akkor talán senki sem találná érdekesnek a pi tizedes jegyeit újabb és újabb billiókig való kiszámolását, miközben egy 39 tizedes jegy birtokában a hidrogénatom sugaránál kisebb hibával határozhatjuk meg a világmindenség kerületét.
Azaz: történeti okai vannak, hogy a matematika egy szélsőségesen absztrakt irányba indult le (és erre a szélsőségesen absztrakt matematikára épült aztán rá az egész modern természettudomány is), és kíváncsi lennék, hogy hová és meddig jutottunk volna, ha annak idején más kiindulási pontot választunk.

2013. július 13., szombat

Számautomaták és számsorok

A mai pénzrendszerek kerek aprópénz-címleteket használnak, állapítja meg John D. Barrow amerikai fizikus, vagyis rendszerint 1, 2, 5, 10, 20, 25, 50 (vagy ezek közül néhány) fordulhat elő fizetéskor. És innentől kezdve persze kérdés, hogy milyen egységekből lenne a legkevesebbre szükség ahhoz – illetve felmerülhetnek az egész számok „legenerálhatóságára” vonatkozó kérdések is.
Ami az előbbit illeti, Jeffrey Shallit (Ontario) számítógépes modellezéssel azt mutatta ki, hogy amennyiben csupán 1, 5, 10 és 25 centest használhatunk, akkor 100 centen belül maradva egy adott összeghez átlagosan 4,7-re lesz szükségünk.  Ám 1, 5, 18 és 29 centesekkel a zsebünkben átlagosan 3,89 darab is elég lenne (mint ahogy az 1, 5, 18, 25 centesek esetében is). Kizárólag 1 centesekből viszont – nem különösebben meglepő módon – átlagosan 49,5 kellene.
Ezt a problémát általánosítva kiindulhatnánk azonban abból is, hogy mi lenne, ha a (természetes) számokat egy egyszerű szám „számautomatával” kellene létrehoznunk az alábbi, nem éppen bonyolult szabályok alapján:
  • kiindulásként a 0 adott , vagyis az, hogy „nincs semmi”.
  • Egy összeadás 1 műveletet jelent; egy szorzás szintén 1-et.
  • Egy ciklusban csak egy műveletet végezhetünk.
  • Csak olyan számokat használhatunk, melyeket már „létrehoztunk” (tehát ha már legeneráltuk a hármat, akkor azt hozzáadhatjuk egy másik, legenerált számhoz vagy összeszorozhatjuk vele, de ha újra szükségünk lenne rá, akkor nem ránthatjuk csak úgy elő a kalapból).
Például az első lépésben meglévő nullához hozzáadunk 1-et, és mivel egy műveletet már végrehajtottunk, a ciklus véget is ér – viszont van egy darab 1-esünk, úgyhogy a következő körben 0 helyett ezzel indíthatunk, és egy újabb +1-nek köszönhetően az eredmény 2 lehet. Majd pedig ha újból végig csináljuk a procedúrát, akkor eljutunk a fentebb említett 3-hoz.
Ami mindezidáig nem is különbözik olyan nagyon attól, mintha a természetes számokat ábrázoló számegyenesen lépkednénk végig 0-tól 3-ig, és amihez esetünkben három ciklus kellett (röviden: 3c), és innentől kezdve a számokhoz hozzárendelhetjük, hogy minimum hány ciklusból konstruálhatóak meg. Tehát a szorzást (1)-gyel jelölve a számok így építhetőek fel:
1=1c
2=2c
3=3c
4=4c
5=5c
6=6c
7=7c
8=7c (2,4, (1))
9=7c (3,3, (1))
10=8c (2,5, (1))
11=9c (2,5,(1),1)
12=8c (3,4, (1))
13=9c (3,4, (1),1)
14=10c (2,7,(1))
15=9c (3,5, (1))
16= 9c (4,4, (1))
17=10c (4,4, (1), 1)
18=10c (3,6, (1))
19= 11c (3,6, (1), 1)
20=10c (5,4, (1))
21=11c (5,4, (1), 1)
22=12c (3,7, (1), 1)
23= 13c (3,7, (1), 2)
24=11c (6,4, (1))
25=11c (5,5, (1))
26= 12c (5,5, (1), 1)
27= 13c (3,9, (1))
28= 12c (4,7, (1))
29=13c (4,7, (1), 1)
30=12c (5,6, (1))
31=13c (5,6, (1), 1)
32=13c (4,8, (1))
33=14c (4,8, (1), 1)
34=13c (4,8, (1))
35=13c (5,7, (1))
36=13c (6,6, (1))
37=14c (6,6,(1), 1)
.
.
.
100= 21c (10,10, (1))
.
.
.
1000=32c (10,10, (1), 10, (1))
Ami persze ideáig is elég izgalmas, mert innentől kezdve a számokat úgy foghatjuk fel, mint egy számautomata adott állapotát, és azt is megfigyelhetjük, hogy vannak olyan számok, melyeket a legegyszerűbben ismételt összeadással állíthatjuk elő. Ezeknek a „komplexitása” azonos magával a számmal, miként 1,2,3,4,5,6,7 esetében történik. 8-tól a jelek szerint ilyesmi nem fordulhat elő, de a komplexitás viszonylag lassan nő, és akadnak olyan számok is, melyeket kétféleképpen lehet egyformán kevés lépésből legenerálni: ilyen pl. a 6 (egyszerű számlálással, 6 lépésben, vagy 2 és 3 létrehozása után ezek összeszorzása) vagy éppen a 23.
Továbbá eljátszhatunk azzal is, hogy mondjuk a 19 –es szám 13 lépésből állítható elő; a 13 pedig 9 lépésből, míg a 9-es létrehozásához 7 lépés kell, vagyis
19 esetén:
19 – 13 – 9 – 7
az 1000 esetén:
1000 – 32 – 13 –  9 – 7
a 37 esetén:
37 – 17 – 10 – 8- 7
a 28 esetén:
28 – 12 – 8- 7
stb., és erős a gyanúm, hogy vagy a 9 – 7, vagy a 10 – 7 utat befutva mindig a 7-nél ér véget a történet.
Mindent egybevetve megtehetjük, hogy úgy fogjuk fel a számokat, mint egymást (nem feltétlenül egyesével) követő számok sorozatát, amelyek végén eljutunk a kívánt eredményhez. Ekkor többféle lehetőség képzelhető el.
1. Az első megoldás az, ahol véges sok lépésben elérjük a kívánt számot, és közben azt is pontosan meg tudjuk mondani, hogy hány lépés kell ehhez. Erre a legegyszerűbb példa egy olyan számautomata, amely nem képes másra, mint az előző számhoz mindig 1-et hozzáadni: ekkor a 0-tól indulva az 1 pontosan 1, a 137 pontosan 137 lépésre lesz. Ami, valljuk be, nem különösebben fantáziadús.
2. A másik lehetőség a Collatz-sejtés: itt az a szabály, hogy ha a szám páros, akkor oszd el kettővel; ha páratlan, akkor szorozd meg 3-mal és adj hozzá 1-et. Mindeddig bármilyen természetes számot választottak is kiindulásul, véges sok lépésben mindig „lejutott” (sic!) 1-hez; viszont lehetetlen előre megmondani, hogy ez hány lépés múlva fog bekövetkezni (egyelőre egyébként bizonyítani sem sikerült, hogy mindig így történik). Ami azért érdekes a számunkra, mert a Collatz-féle számautomatát visszafelé „üzemeltetve” az 1-től feltehetően bármelyik számhoz eljuthatunk véges sok, de előre megjósolhatatlan számú lépésben.
3. És végül ott van a fentebb részletesen leírt számautomata is, ahol a számegyenesen egyesével való előre araszolás helyett a szorzás is megengedett. Itt is véges sok lépésben jutunk el a célként kitűzött számig, és az első néhány (ld. fentebb) szám kivételével feltehetően mindig van egy rövidebb út az egyesével való összeadogatásnál. A négyzetszámok esetén (a 4 kivételével) a szám gyökének kétszerese + 1 lépésre van szükség; különben azonban nem tűnik úgy a számomra, hogy azon túl, hogy lassan nő a szükséges lépések száma, lenne szabály, amely nem csak hozzávetőlegesen, hanem pontosan előre jelezhetővé teszi a végeredményt.
Vagyis mintegy átmenet a számegyenes unalma meg a fordított Collatz-automata kiszámíthatatlan számú lépést igénylő megoldásai között.

2013. július 3., szerda

Számféleségek és számkoncepciók

A kvaternió felfedezése
Abból szokás kiindulni, hogy a természetes számok „természetesek”, értsd: mintegy az alapjai minden más számnak, és mintegy „természetesen adottak”. Ennek a felfogásnak természetesen :-) történeti okai vannak.
John L. Bell amerikai matematikus szerint a természetes számok „minden létező dolog” megszámolására valók; a törtek pedig akkor kerültek előtérbe, amikor az eredetileg számolásra szolgáló számokat „minden létező nagyság” mérésére és összehasonlítására kezdtük használni.
A mai matematikában az 1-et nem tekintjük prímnek. A görögök viszont számnak sem tekintették. Arisztotelész még úgy tartotta, hogy a szám valamiféle „láthatatlan egységek” kollekciója, amiből viszont az következett a számára, hogy mivel az 1 maga az egység, nem pedig több dolog, ezért nem lehet szám. Mint ahogy a törtek sem számítottak annak (elvégre ami nem egész, az nem állhat össze egységekből), és eközben a geometriai nagyságokról – a számokkal ellentétben –  úgy gondolták, hogy azok végtelenül oszthatóak. Ez a felfogás csak az 1500-as évekre adta át teljesen a helyét annak, mely szerint „a szám olyan szimbólum, amely a mennyiséget általában véve mutatja, ide értve a folyamatos mennyiségeket is”, mondja Bell.
A történelem folyamán mindig újabb és újabb „számféleségek” is megjelentek – miként ezt egy-egy megoldandó egyenlettel szokás megmutatni:
1.    x+1=1 (nulla)
2.    x+1=0 (negatív számok; a természetes és negatív számok együtt: egész számok)
3.    x^2=1 (racionális számok)
4.    x^2=2 (irracionális számok) (racionális és irracionális számok együtt: valós számok)
5.    x^2+1=0 (komplex számok)
Vagyis az első hullámban (1., 2.) az összeadás – kivonás; a másodikban (3., 4., 5.) a szorzás – osztás vezetett új megoldásokhoz, és ez a második lépés – egyáltalán nem mellékesen – eredményezte azt is, hogy megjelenhettek a „kétdimenziós” komplex számok, ahonnét már csak egy lépésre vannak a hiperkomplex számok és hasonlók.
Természetesen annak sincs akadálya, hogy a már létező számfogalmakat „továbbfejlesszük”: Edwin Hewitt pl. még a II. Világháború után bevezette a „hipervalós” számokat, melyek a valós számok végtelennel és végtelenül kicsivel (infinitezimális) kibővítésének tekinthetőek.
Dea hagyományos helyett megkülönböztethetjük a számokat más tulajdonságaik alapján is: a kiszámítható (computable) számok például értelemszerűen a számítástechnikával együtt jelennek meg, és minden bizonnyal vannak olyan izgalmasak, mint bármelyik fentebb említett kategória. Különösen, mivel ha a számítástudomány, illetve a felől közelítünk ahhoz a kérdéshez, hogy mire képes egy digitális számítógép, és mire nem, akkor érdekes eredményekre fogunk jutni. Például „a valaha megépítendő legnagyobb számítógép sem lesz képes akár csak egyetlen végtelen nem szakaszos tizedestört tárolására sem”, írja Reuben Hersh. Amennyiben - ad absurdum - a számítástechnika előbb lett volna a modern matematikánál, úgy egészen biztosan máshogy néznének ki a számfogalmaink.
Úgyhogy a kérdés számomra az, hogy
  • egyfelől a jövőben milyen számféleségek fognak még megjelenni,
  • másfelől: hogyan változik majd a számokra vonatkozó felfogásunk. Legalábbis elképzelhető ugyanis, hogy ugyanolyan alapvető átértelmezések fognak lezajlani, mint az ókori és a modern számfogalom között.
  • Végezetül pedig azon is érdemes eltűnődnünk, hogy a számkoncepció tárgyalásánál adottnak vesszük, hogy a természetes számokból indulunk ki – mivel történetileg azok jelentek meg először. Csak éppen ez nem jelenti automatikusan azt, hogy a modern matematika megalapozásának is feltétlenül erre kellene épülnie, és miért is ne képzelhetnénk el olyan rendszereket, ahol nem a természetes számokból kiindulva jutunk el a tört, a valós stb. számokhoz? Vagy esetleg nem is ezekhez, hanem valamilyen teljesen más számkategóriákhoz.

2013. június 28., péntek

A metamatematikán innen és túl

A metamatematika – olvasható a Wolfram-féle MathWorldben – tulajdonképpen „egy másik kifejezés a bizonyításelméletre”, és ide tartozik például a Gödel tétel is. Kissé általánosabban fogalmazva pedig valami olyasmit mondhatunk, hogy a metamatematika magát a matematikát tanulmányozza matematikai módszerekkel.  Vagyis „azt …, hogy mit képes és mit nem képes elérni a matematika”, mondja Gregory J. Chaitin.
Az az „ötlet” pedig, hogy szükség lenne valami ilyesmire, a német matematikus, David Hilbert 20. század eleji programjára vezethető vissza, ahol az lett volna a végső cél, hogy a bizonyítás gép által is elvégezhető, formalizált módszerét dolgozzák ki. Amit az ún. „alapok válsága” tett indokolttá, vagyis az, hogy az 1800-as évek második felében kiderült, hogy korántsem olyan egyszerűek (ld. a nem-eukleidészi geometriákat) vagy ellentmondásmentesek (ld. a Russell-paradoxont) a dolgok a matematikán belül, mint szeretnénk, és az egyik lehetséges megoldásnak az tűnt, ha matematikai (logikai) módszereket alkalmazva megvizsgáljuk, hogy miként lehet egy ellentmondásmentes és jól működő matematikát felépíteni.
A kérdésnek természetesen volt egy matematikafilozófiai vetülete is, Hilbert ugyanis a platóni matematikafelfogással ellentétben (mely szerint a számok valamiképpen léteznek, még ha nem is ugyanúgy, mint egy hétköznapi tárgy) úgy gondolta, hogy a matematika önmagukban üres és jelentés nélküli szimbólumokkal foglalkozik, és így nem is vonatkozik a valóságra, hanem önmagában üres és értelem nélküli „játék”.
Ami már csak azért is érdekes a számunkra, mert innentől kezdve a kérdés több rétegre bontható.
Az egyik szint a matematikafilozófiáé: a formalista és a platonista matematikusok nem értenek egyet „a létezés és realitás” kérdésében (hogy a Davis – Hersh szerzőpáros megfogalmazását vegyem kölcsön).  Egy másik szint magának a matematikának a gyakorlatban való műveléséé: itt viszont a platonisták és formalisták „nem vitatkoznak egymással azon, hogy… az érvelésnek milyen elemei engedhetőek meg” (mondja ismét csak Davis és Hersh).  Tehát úgy tűnhet, mintha a gyakorlat szempontjából teljesen mindegy lenne, hogy melyik állásponttal értünk egyet, és hogy platonistának vagy formalistának tekintjük-e magunkat, mert a tétel, az axióma, a bizonyítás stb. alatt mindkét esetben ugyanazt értjük.
Valójában azonban egy platonista matematikusnak valószínűleg nem jutott volna eszébe a Hilbert-program, és a következő lépésben annak hangoztatásával, hogy a számításokat (és bizonyításokat) mechanizálni kell, valószínűleg nem jutott volna el a modern számítógéphez sem. Mechanikus számológépeket persze már Leibniz és Pascal óta építgettek, de ezek még a 19. század végén – 20. század elején is leginkább nem digitálisak, hanem analógok voltak, még ha utólag hajlamosak vagyunk is a számítástechnika történetének megírásakor a digitálisokra fókuszálni.
Viszont a Hilbert-féle megközelítés nélkül legalábbis valószínűtlen, hogy eljutottunk volna a modern számítástudományhoz.  És persze Hilbert programja vezetett el „egy teljesen új matematikai területhez, a metamatematikához” is, állapítja meg Chaitin.
Amivel azonban még nincs vége a történetnek, ugyanis amikor akár Gödel, akár Chaitin, akár pedig bárki más metamatematikával foglalkozik, akkor adottnak vesz bizonyos dolgokat. Például: az axiomatikus módszert, a szimbolikus logikán alapuló megközelítést és hasonlókat, ám azok a matematikai alapok, melyek alapján jelenleg magát a matematikát tanulmányozzuk, nem valamiféle örökkévaló és megingathatatlan igazságok, hanem a 19. század második – a 20. század első felére jellemző felfogások és megközelítési módok eredményei. Ha pedig ez így van (márpedig ez a helyzet), akkor bátran rákérdezhetünk ezekre is, és megvizsgálhatjuk, hogy a jelenlegi megoldások mellett milyen alternatívák képzelhetőek el.

2013. június 22., szombat

Origami, tertaktys és pontnélküli geometria

Eukleidész abból indult ki, hogy a tér legkisebb egysége a pont, és erre alapozva kell felépíteni a geometriát (pont-->egyenes-->sík). Ez azonban korántsem szükségszerű.
Eukleidésznél minden bizonnyal ma a matematikán kívülinek tekintett megfontolások is szerepet játszottak. Miként John L. Bell megjegyzi (a The Art of the Intelligible lapjain), a háromszögszámok közül a 10: a tertaktys Püthagorasz követőinél kitüntetett szerepet játszott, mivel ez az első négy természetes szám (1,2,3,4) összege. Emellett pedig „a lehetséges geometriai dimenziók összege: 1 pont: a generátor; 2 pont: a vonal; 3 pont: a sík; 4 pont: a (tetrahedrikus) térfogat”. És innentől kezdve persze, hogy a pontból indulunk ki (és jó lenne tudni, hogy hol máshol befolyásolták még a döntését hasonló megfontolások).
Egy „csak hajtogatáson” alapuló origami-geometriánál viszont, ahol a „hagyományos” origami-geometriával ellentétben nem engedjük meg, hogy – mintegy az eukleidészi felfogás örökségeként – minden további nélkül pontokat használjunk, első lépésben maga a sík adott; és ennek hajtogatása eredményezi az egyeneseket, amelyek segítségével előállíthatunk egy pontot. És ezzel el is jutottunk az ún. „pont nélküli” geometriákhoz, ahol nem a pont a kiindulási pont :-).
Ezeknél a matematikus Giangicomo Gerla megfogalmazása szerint „a régiókat tekintjük individuumoknak”, vagyis ezek „a logika nyelvén szólva elsőrendű objektumok, míg a pontokat olyan osztályok reprezentálják, melyek… másodrendűek”. Már Lobacsevszkij is kísérletezett ilyesmivel, de a téma csak a 20. század végére vált kidolgozottá.
Elbíbebelődhetnénk persze azzal, hogy a „csak hajtogatáson” alapuló megoldásoknál a pont leghamarabb a harmadik lépésben jelenhet meg, és ekkor a léte mintegy bele van ágyazva az egyenesekébe (melyeké viszont a síkéba); illetve elkezdhetnénk az építkezést nem a síkból, hanem az egyenesből kiindulva (miként egyfajta „fizikai geometria” kidolgozásakor Tim Maudlin tette).
Számomra azonban még ennél is izgalmasabbnak tűnik, hogy amennyiben nem az egyetlen lehetséges megoldás az eukleidészi pont – egyenes – sík felfogás, akkor a sík – egyenes - pont hármas mellett milyen más elemekből építhetnénk még fel a geometriát?
Kiindulhatnánk például az origami-geometria síkja helyett a térből? Sőt, esetleg nem is a három, hanem egy n-dimenziós térből? És attól, hogy a csak hajtogatást megengedő origami-geometriában is három alapelemmel dolgozunk (noha a „származtatás” sorrendje más, mint Eukleidésznél), más megoldásoknál is éppen három elemre lenne szükség?

2013. június 17., hétfő

Nem ellentmondásmentes axiómarendszerek?

Az úgynevezett „reverz matematikáról kissé leegyszerűsítve” azt mondhatjuk, hogy az mintegy visszafelé haladva nem az axiómáktól jut el a tételekig, hanem fordítva: azt vizsgálja meg, hogy milyen axiómákat kell választanunk ahhoz, hogy egy tétel igaz legyen.
Ezt a megközelítést az teszi lehetővé, hogy ma már nem várjuk el az axiómarendszerektől, hogy igazak legyenek, hanem csupán azt, hogy ne tartalmazzanak ellentmondást. Márpedig nagyon sok, sőt, minden bizonnyal végtelen számú ilyet lehet felépíteni, és amennyiben egy meglévő rendszer elég erős ugyan a „szükségesnek látszó” állítás megfogalmazásához, de nem elég erős a bizonyításához, akkor miért is ne próbálnánk módosítani az alapokat a céljaink eléréséhez.
Eközben eltűnődhetünk azon is, hogy
  1. a matematika nulladik fázisában (pl. sumérok) nem volt axiómarendszer (és ez persze másutt is előfordult: a matematika nem európai gyökereit tárgyalva említi George Gheverghese Joseph, hogy Ramanudzsan nem használta „a bizonyítás deduktív és axiomatikus” módszerét. És persze az sem érdekelte, hogy „igaz-e” valami, „csak maguk az eredmények számítottak. 
  2. Eukleidész után az európaiak számára elvárássá vált, hogy az axiómarendszer igaz legyen (és ebbe persze beleértették azt is, hogy ellentmondásmentes is legyen)
  3. a 20. századra pedig kialakult az a meggyőződés, hogy az „igaz mivolt” nem, csak az ellentmondás-mentesség várható el – az viszont mindenképpen meg kell, hogy legyen.
  4. Viszont Hofstadter azt írja a Gödel, Escher, Bach-ban, hogy „a paradoxonok mindenáron való kiküszöbölése túlhangsúlyozza a következetességet, különösen akkor, amikor ehhez nagyon elvont formalizmusra van szükség”. Vagyis: mikor és mennyire érdemes elvárni az ellentmondás-mentességet?
A skála egyik végén a hagyományosan ellentmondás-mentességre törekvő matematikai megközelítés található, ahol a Russel-paradoxon hatására az egészet az alapoktól újraépítik – a másik végén pedig egy, a használhatatlanságig ellentmondásos matematikai rendszer helyezkedne el.
Viszont a kettő között vannak átmenetek is – vagyis miért is ne képzelhetnénk el olyan matematikákat, amelyekben előfordulnak ugyan anomáliák, de attól még általában jól működnek? Ismét csak Hofstadter szerint, ha a nyelvre akarnánk alkalmazni a halmazelmélettel kapcsolatos elvárásainkat, akkor az eredmény egy olyan rendszer lenne, ahol „magának az elméletnek a tárgyalása jelentené az elmélet legdurvább megsértését”.
Értsd: egyszerűen nem működne a dolog, és innentől kezdve számomra kérdés, hogy a matematikával szemben viszont miért várjuk el, hogy „tökéletes” legyen még akkor is, ha ehhez mindenféle nyakatekert logikai tornamutatványokat kell végrehajtanunk?
Mint ahogy az "inkonzisztens matematika" éppen az ellentmondásmentesség bizonyos feltételek mellett való elhagyására épít - ami viszont azt jelenti, hogy az eddigi ellentmondásmentes axiómarendszerek mellé most oda kerülhetnek az inkonzisztensek is. Méghozzá nem is kevés, cserébe pedig (talán) olyan területek és kérdések is elérhetőek lesznek, melyek korábban nem voltak azok.

2013. június 7., péntek

Prímek és sejtautomaták

Gregory Chaitin amerikai matematikus egyenesen azt mondja, hogy „nem nagyon érdekelnek a prímszámok”, és hivatkozik Ramanudzsanra is, aki szerint lehet, hogy helyettük inkább a „maximálisan osztható”, vagyis a lehető legtöbb osztóval rendelkező számokkal kellene foglalkoznunk. Ehhez Chaitin azt is hozzáteszi, hogy az egész kérdésnek leginkább filozófiai jelentősége van, vagyis az, hogy „még egy ilyen egyszerű matematikai területen is azonnal olyan kérdésekbe ütközünk, amelyek megválaszolásának hogyanját senki sem tudja”, és innentől kezdve két megoldás képzelhető el ezekkel a bizonyos csak eggyel és önmagukkal osztható számokkal kapcsolatban.

Vagy az, hogy vannak még számunkra ismeretlen mintázatok/szabályszerűségek, és előbb-utóbb ha nem bukkanunk is rájuk szükségképpen, legalább elvileg rájuk bukkanhatunk majd a jövőben;
vagy pedig a prímszámok (és más matematikai jelenségek) esetében nem léteznek ilyen szabályszerűségek – bármennyire meglepően is hangozzék ez elsőre.
Mely utóbbi feltételezéssel összhangban Stephen Wolfram az Újfajta tudományban a sejtautomatákból kiindulva két megállapítást tesz: hogy
  • egyszerű rendszereket létrehozva hamar átlépünk egy küszöböt, és ezt követően a rendszer előre jelezhetetlenül kezd viselkedni; illetve, hogy
  • a további, komplexebb szabályok általában nem vezetnek növekvő komplexitású jelenségekhez.
Majd pedig a példák között a prímeket is megemlíti, ahol egyszerű szabályok (oszthatóság) előre jelezhetetlen viselkedést (előre jelezhetetlen módon megjelenő prímek) eredményeznek. Amiből nem mellékesen az is következik, hogy bármiféle szabálykeresés, ideértve pl. az Ulam-spirált is, eleve kudarcra van ítélve.
Ugyanis az ilyen rendszerekben csak úgy lehet kideríteni, hogy a sejtautoma egy adott helyén van-e valami vagy nincs (illetve, hogy egy adott szám prím-e), hogy megvizsgáljuk a szóban forgó esetet – de nincs valamiféle szabályból következő válasz. Az pedig, hogy az Ulam-spirál szabályszerűséget látszik mutatni, egyáltalán nem meglepő: Wolfram számos példát mutat ilyesmire a sejtautomatáknál.
Amennyiben elfogadjuk az érvelését (márpedig én elfogadom), akkor legalább három kérdést tehetünk fel.
  • Egyfelől azt, hogy vajon csupán ez az egyetlen komplexitási küszöb létezik-e, vagy pedig azért nem bukkantunk még újabbakra, mert a Wolfram által használt egyszerű sejtautomaták nem elég bonyolultak ahhoz, hogy elvezessenek hozzájuk?
  • Másfelől: eddig lehet, hogy túlságosan is a „szabályok tudományának” tartottuk a matematikát, és amivel nem boldogultunk, azt egyszerűen még meg nem oldott problémának tekintettük, noha elképzelhető, hogy jó néhányat közülük nem is lehet a hagyományos értelemben megoldani.
  • Végezetül a kiindulási problémánkhoz visszakanyarodva: úgy tűnik (és azért fogalmazok ilyen óvatosan, mert itt, lévén nem a matematika hagyományos megközelítéséről szó, a hagyományos bizonyosságnak sincs helye), hogy az összeadás és kivonás (miként korábbi blogbejegyzésekben már érintettem) nem elég bonyolult ahhoz, hogy olyan szabálytanul viselkedő jelenségeket hozzon létre, mint amilyennek a szorzás és osztás „magasságában”, azt a bizonyos komplexitási küszöböt átlépve a prímszámok bizonyulnak.  Viszont jó lenne tudni, hogy vajon milyen más, nem szorzáson és osztáson alapuló matematikai rendszereket építhetnénk rá az összeadásra és kivonásra, ahol hasonlóan összetett és előre jelezhetetlen eredmények lépnének fel, mint most?

2013. június 5., szerda

A Nagy Fermat-tétel és "a könyvből" származó bizonyítások

Az utóbbi évtizedek talán legnagyobb matematikai szenzációja a Nagy Fermat-tétel bebizonyítása volt – a történet azonban korántsem olyan egyszerű, mint amilyennek látszik.
Egyfelől ugyanis felmerülhet a kérdés, hogy miért éppen ez, és azt válaszolhatjuk rá, hogy minden bizonnyal jelentős mértékben történeti okokból. Az például, hogy léteznek-e tökéletes páratlan számok (ahol a szám osztóinak összege magának a számnak mint osztónak az elhagyásával azonos a számmal), minden bizonnyal nem nehezebben megérthető probléma; nekem nem tűnik kevésbé izgalmasnak; és nem is újabb. Viszont mégsem foglalkoztatja az emberek túlnyomó többségét. De említhetnénk más példákat is: elvégre ne feledjük, hogy (bizonyos határokon belül) mindig szubjektív, hogy mi számít fontosnak és mi nem.
Viszont amikor Paul Wolfskethl darmstadti gyáros szerelmi bánat miatt öngyilkosságot akart lekövetni a 19. század második felében, akkor elhatározta, hogy ezt pontosan éjfélkor fogja megtenni – ám a könyvtárában rábukkanva Fermat állítására, annyira belemerült az olvasásba, hogy elmulasztotta az időpontot. Úgyhogy hálája jeléül díjat alapított a bizonyítás honorálására, és göttingeni egyetem csak az első évben 621 „megoldást” kapott. Még egy szabványválaszt is kénytelenek voltak rendszeresíteni, mely szerint
„Kedves… Úr/asszony!
Köszönettel vettük a Fermat-sejtés megoldásáról szóló kéziratát. Az első hiba a …-dik oldalon, a …-dik sorban található. Ebből kifolyólag a bizonyítása nem értékelhető.”

Ám David Hilbert 1900-ban ennek ellenére még ha a bevezetőben megemlítette is, mégsem vette fel a korszak 23 legfontosabb matematikai problémájának a listájára – és miért is tette volna. Fermat állítása mindössze annyi volt, hogy az a^n+b^n=c^n-nek nincs megoldása, ha n 2-nél nagyobb, pozitív egész szám – ami kétségkívül érdekes állítás ugyan, de még akkor sem több ennél, ha ma többek között arra szokás hivatkozni, hogy a bebizonyításához vezető kutatások során számos érdekes és fontos eredmény született. Csak éppen bármelyik nehéznek bizonyuló bizonyításnak ez lett volna az eredménye: elvégre amennyiben nem triviális, úgy sokat kell dolgozni vele.
Ráadásul ott van Carl Linderholm, aki a Mathematics Made Difficult című 1972-es könyvében azt kérdezi, hogy mivel folytatódhat az 1,2,3,4,5 számsor. Meg a 2,4,6,8,10; az 1,4,9,16,25 és még néhány másik. Majd pedig megmutatja, hogy a Lagrange-féle interpolációs képlet mindegyikre a 19-et adja ki. Értsd: ugyanazt a (matematikai) jelenséget többféleképpen is lehet magyarázni, és persze az sem kétséges, hogy bizonyítani is több úton-módon lehet. Elisha Scott Loomis 1940 körül például nem csupán 370 bizonyítást gyűjtött össze a Pitagorasz-tételre, de eközben 4 csoportba is sorolta őket: algebrai bizonyítások (109); geometriai (255); a komplex vektortereken alapuló kvaternionikusak (4) és a dinamikán alapulóak (2).
De hogy visszatérjünk a Fermat-tételhez: ráadásul Wiles valójában nem is ezt bizonyította be (és a dolgozatában ezért nem is említi Fermat nevét), hanem az ennél általánosabb Taniyama – Shimura sejtést, amelyből viszont következik a Fermat-tétele is.
Végül pedig egy további példaként ott van Klein ún. erlangeni programja is, mely szerint „a geometria nem más, mint csoportelmélet”. Amiből pedig az következik, hogy  egy régóta tanulmányozott területet adott esetben vissza lehet vezetni egy újra; és így új megoldások bizonyítások is születhetnek – akár egy régi sejtésre, akár pedig egy olyanra, amely korábban fel sem merült.
Semmi okunk sincs tehát feltételezni, hogy a jövőben ne találhatnánk más bizonyításokat a Fermat-tételre is; illetve, hogy ezek egyike-másika nem lehetne jóval egyszerűbb a Wiles-félénél, amely több mint 100 oldalra rúg, és a világon alig néhányan képesek megérteni. Erdős Pál nagyon szerette mondogatni, ha egy bizonyítás nagyon tetszett neki, hogy az „a könyvből” való; valójában azonban nem egy könyv van, hanem egy egész könyvtár, és ebből egyes műveket még el sem kezdtünk írni.

2013. május 30., csütörtök

Óra- és pingpong-aritmetikák

Az ún. óra- vagy moduláris aritmetikát Gauss vezette be. Ezt akár tovább is fejleszthetjük – ami persze talán csak játék, de annak szórakoztató.
A Gauss-féle elképzelés az első véges aritmetika volt, és a trükk azon alapul, hogy a tő- meg a sorszámra ugyanazt használjuk. 6 könyv említése esetén 6 darab könyvre gondolunk, de ha a repülő jegyre a 6-os szám van nyomtatva, akkor ez annyit tesz, hogy a hatodik hely. A Gauss-féle megoldásnál egyfelől azt számoljuk, hogy hányadik, ahogy lépegetünk a egyik számtól a másikig; másfelől eközben a hatodik helyen talált számot kezeljük a hatodik hely értékeként. Ez a kettő: a hely száma és az adott helyen található érték viszont egy idő után nem esik egybe, amennyiben nem a számegyenesen számolunk, hanem mintegy egy óra számlapján végezzük a műveleteket a hagyományos számlap 12-ese helyett 0-t írva. Ekkor a számok előbb-utóbb elfogynak,  és a 12 számjegyű óra lapnál (mod 12) például 11+1 a 0-val lesz egyenlő, mert a mutató a 11-es után a 0-ra ér. Értsd: a számolás körbe ért és újra kezdődik (ennek megfelelően 11+2 pedig 1 lesz, és így tovább). Amit úgy is elképzelhetnénk, mintha a természetes számok számegyenesének a számai 0-tól 11-ig a szokványos módon nőnének, majd a 12 után 0 következne; aztán kezdődne az egész elölről. Vagyis:
0,1,2,3,4,5,6,7,8,9,10,11,0,1,2,3,4,5,6,7,8,9,10,11,0… és így tovább.
Eljátszhatunk viszont egy olyan véges aritmetikával is, ahol a számegyenes szakasza 0-val kezdődik, egy adott értékig minden ugyanúgy történik, mint szokott, utána viszont csökkenni kezdenek a számok, hogy aztán 0-ig meg se álljanak – majd elölről kezdődik az egész. Mintha csak a szakasz két végpontja között pattogna ide-oda egy pingponglabda. 12-es alap esetén:
0,1,2,3,4,5,6,7,8,9,10,11,10,9,8,7,6,5,4,3,2,1,0,1,2,3,4,5,6,7,8,9,10,11,10… stb.
Ekkor 11+1 nem 0 lesz; hanem 10; 22 egyenlő lesz 0-val; 23 pedig 1-gyel. Ez természetesen megfeleltethető egy olyan óra számlapjának, ahol a számjegyek 0-tól 11-ig nőnek, majd onnantól kezdve 0-ig csökkennek.
Egy ilyen rendszerben más lesz a számolás, mint a Gauss-félében. Például mod 4 (első oszlop) és a 4-es alapú pingpongaritmetika (második oszlop) értékei:
0    0
1    1
2    2
3    3
0    2
1    1
2    0
3    1
0    2
1    3
2    2
3    1
0    0
etc.

De ha már játszunk: miért is ne csinálhatnánk olyan aritmetikákat, ahol
0,1,0,1,2,0,1,2,3,0,1,2,3,4… stb (vagyis mintha csak mod 2-vel kezdenénk számolni, és ha abban elértük a 0 pontot, akkor mod 3-mal folytatnánk, hogy a következő lépésben áttérjünk a mod 4-re – és így tovább).
Illetve ugyanezt megtehetjük a pingpong-aritmetikákkal:
0,1,0,1,2,1,0,1,2,3,2,1,0,1,2,3,4,3,2,1,0 stb. Hogy ez mire jó (ha ugyan jó egyáltalán valamire), azt még nem tudom – de mindenképpen jól el lehet bíbelődni vele.

2013. május 28., kedd

A bizonyítástól az új kísérleti matematikáig

Timothy Gowers angol matematikus szerint a filozófusok elvitatkozgathatnak azon, hogy léteznek-e a számok vagy sem, de egy matematikus ezek létét vagy magától értetődőnek tekinti, vagy pedig nem is érti a problémát. Majd pedig azt is hozzáteszi, hogy a matematikai „módszer mottója az lehetne, hogy egy objektum azonos azzal, ahogyan viselkedik”, és ennek megfelelően „nem maguk a számok fontosak, hanem a rájuk vonatkozó szabályok”.
Viszont ha nem tekintjük is relevánsnak, hogy mi a szám, az, hogy mi a matematika, egészen biztosan számít – elvégre, bármilyen tautologikusan is hangozzék, ez határozza meg azt, hogy mit tekintünk matematikának. És ez nem csupán változhat, de jó néhányszor változott is a történelem folyamán.
A görögök kezdték a számok mellett a geometriai alakzatok tudományának tekinteni; Leibniz és Newton hatására a mozgás, a változás és a tér is bekerült a matematikával foglalkozók repertoárjába; míg a 19. század végén a fentebbiek „vizsgálatában alkalmazott matematikai arzenál is”, hogy mára lényegében a „mintázatok tudományává” váljon (legyenek bár azok a mintázatok a számelmélet vagy éppen a topológiai mintázatai), írja Keith Devlin amerikai matematikus. Eközben szerinte a matematika mindvégig megőrző jellegű maradt, vagyis azok a problémák, melyek az ókorban ide tartoztak, ide tartoznak a 21. században is.
Tehát adódik a kérdés, hogy egyfelől
a matematika kiterjesztése a jövőben is folytatódni fog-e, vagy pedig elértük a kiterjesztés lehetséges határait? Másfelől pedig, hogy eközben
a matematika továbbra is megőrző jellegű marad, vagy pedig egyes területei a jövőben kimaradnak belőle?
És ami azt illeti, a válasz korántsem olyan egyszerű, mint szeretnénk.
Amikor Luigi Serafini olasz művész az 1970-es évek végén elkészítette minden idők egyik legkülönösebb művészi alkotását, a képzeletbeli világot bemutató Codex Seraphinianust, akkor ehhez külön írásrendszert alkotott, a képek pedig egy teljesen a miénktől eltérő logikájú univerzumot mutatnak be. Ám maga a könyv olyan fejezetekre volt osztva, mint a flóra; a fauna; a kétlábúak stb. Értsd: többé-kevésbé szorosan követte a jelenleg a Földön használatos taxonómiát.
Viszont miért is ne választhatna valamilyen más kategorizálást? Borges említ egy képzeletbeli enciklopédiát, amely az állatokat úgy kategorizálja, hogy „a, a Császár birtokát képezők; b, a bebalzsamozottak; c, a megszelídítettek; d, szopós malacok; e, szirének; f, mesebeliek; g, a szabadban futkározó kutyák; h, az ezen osztályozásban foglalt állatok; i, amelyek rohangálnak, mintha csak megvesztek volna; j, a megszámlálhatatlanok; k, amelyeket roppant finom teveszőr ecsettel festettek; l, stb.; m, amelyek az imént törték el a korsót; n, amelyek távolról legyeknek látszanak.”
Ami minden bizonnyal jól érzékelteti (még ha ironikusnak tekinthető is), hogy többféle kategorizálás lehetséges. Márpedig ez egyáltalán nem mindegy: amikor a 19. században a korábban különálló diszciplínákként létező természethistóriát, botanikát stb. egységesen biológiakánt kezdték kezelni, akkor az egész felfogás is megváltozott. Ennek megfelelően érdemes lenne kipróbálni, hogy miként, a mostanitól eltérő módon tudnánk még a matematikát keretrendszerbe foglalni? Ekkor talán rábukkanhatnánk olyan, új értelmezésekre/megközelítési módokra/területekre, amelyek így egyszerűen nem látszanak a számunkra – mint ahogy a nem eukleidészi geometriák sem látszottak a 19. század közepéig. Ugyanis ahhoz, hogy értelmezni tudjuk őket, el kellett jutni arra felismerésre, hogy nem csak „a” geometria” létezik, hanem ennek vannak különböző változatai is. Innentől kezdve viszont neki lehetett állni ezeket tanulmányozni.
Tehát a megközelítés sem mindegy. Különösen, hogy Devlin minden bizonnyal egy 20. század végi szemléletet vetít vissza a múltba, hiszen a matematika (bármit jelentsen is ez a fogalom) a septem artes liberales részeként egészen biztosan nem úgy értelmezték, mint a ma. Ugyanis például olyan értelemben tekintették eszköznek a misztikus valóság megragadására még Kepler idején is, ami számunkra elfogadhatatlan lenne (hacsak nem vagyunk numerológusok).
És hasonló a helyzet a bizonyítás ma központinak tekintett szerepével is: amikor ismét csak Kepler azt gondolta, hogy a Világmindenség harmóniáit a matematikai szabályok írják le, akkor (mivel valójában mást értett a matematika alatt, mint mi, ezért) eszébe sem jutott, hogy ezt bizonyítani kellene.
Ezen a ponton nem a bizonyításnak a mai matematikában játszott alapvető szerepét akarom kétségbe vonni; és az sem kétséges, hogy hasznos eszközről van szó – viszont a fentebbiek szerint elképzelhetőek más, alkalmasint a „bizonyítás matematikája” mellett létező megoldások is. A bizonyításokon alapuló matematika ugyanis – hogy ismét egy tautológiával álljak elő – azon problémák esetében működnek jól, melyek a bizonyításokon keresztül ragadhatóak meg. A prímek például tipikusan ellenállni látszanak az ilyen típusú problémamegoldásnak, és a bizonyításkeresés különben is minden bizonnyal behuzalozza, hogy milyen kérdések tűnnek érdekesnek vagy fontosnak a matematikán belül.
Mostanra viszont elképzelhetőek más megoldások is, ahol tárgyalhatóak olyan kérdések is, melyeknek eddig nem sok értelme volt.
Az úgynevezett kísérleti – vagy ha úgy jobban tetszik – számítógép-támogatott matematikát a Riemann-féle zéta funkció vizsgálatától a pi értékét megadó új képletek kereséséig sok dologra használják. Ami viszont bizonyos szempontból kissé olyan, mintha a számítógépet egyszerűen fejlettebb írógépként kezelnénk.
A Science 2020 Group néhány évvel ezelőtt arra számított, hogy a számítástechnika ugyanúgy be fog olvadni a tudományosság alapjaiba, mint ahogy a matematika tette a 17. században, aminek az volt a következménye, hogy a korábbi, arisztotelészi, a tárgyakat mozgató „vágyakon” alapuló „fizikát” felváltotta az új, ma is elfogadott természettudományos megközelítés. Vagyis alapvető változás volt a végeredmény, és kíváncsi lennék, hogy most is így lesz-e.
Mint ahogy arra is, hogy ez (miként feltételezem) tényleg vissza fog-e hatni magára a matematika természetére.
Jelenleg ott van egyfelől a hagyományos bizonyítás, amely kizárólag a matematika eszközeit használva eldönti, hogy egy tétel igaz-e vagy sem. Másfelől ezt egészíti ki a „bizonyítás kimerítés által”, amikor – miként a négyszín sejtés számítógépes bizonyításánál vagy Keplernek a teret gömbökkel való kitöltésére vonatkozó problémájánál történt – végigpróbálgatják az összes lehetséges megoldást, és ezáltal jutnak eredményre.
A harmadik megoldás pedig az lehet, hogy (a fentebbi módszerek megtartása mellett) a matematikán belül kialakul egy olyan terület is, és itt ugyanúgy nem lesz elvárás a teljes bizonyosság, mint ahogy a természettudományokban sem, ahol nem működik a véges sok példán alapuló teljes indukció. Ennek köszönhetően viszont olyan matematikai kérdések is tárgyalhatóak lesznek – még ha a teljes bizonyosság nélkül is –, amelyek jelenleg nem. Azaz mint ahogy korábban a természettudományokat próbálták a matematika képére formálni, most a matematika kezdene majd hasonlítani a természettudományokhoz.
És, ki tudja, talán egyszer majd ide fog esni a matematikai kutatások súlypontja is.

2013. május 24., péntek

Primitív prímek, kétszeres szakaszszámok és hasonlók

A kapcsolat című filmben a főhősnő számára akkor válik nyilvánvalóvá, hogy idegen civilizáció jeleit fogta, amikor rájön, hogy a számsor prímekből áll: 59, 61, 67, 71… stb. A matematikus Marcus du Sautoy ezzel kapcsolatban azt mondja, hogy „a prímek azok a számok, amelyeket keresztülküldhetünk a Világegyetemen”, hiszen, mint ismert, minden szám egy és csak egyféleképpen prímtényezőkre bontható.
Értsd: minden természetes szám belőlük áll össze, tehát ez a kézenfekvő választás. És persze ennél egyszerűbbet nem is találhatunk, mert bár a szorzás valójában az ismételt összeadásra vonatkozó rövidítés, az összeadás szintjén nem létezik ilyen felbontás, hiszen míg a prímtényezőkre bontásnál látszik a szám „szerkezete”, addig az összeadásnál egyetlen masszába olvad össze az egész, és utólag nem lehet megmondani, hogy mondjuk az 5-ös 4+1-ként vagy 2+3-ként jött-e létre. Ráadásul a 2, a 3 vagy az 5 mindegyike az 1-ből kiindulva konstruálható meg, és ez így bizony unalmas.
Másfelől viszont azon is érdemes eltűnődni, hogy mivel a prímek a szorzás/osztás szintjén tűnnek fel, ezért akár úgy is fogalmazhatnánk, hogy létük ezek létének köszönhető. Értsd: egyfelől ha egy civilizáció nem használja ezeket, akkor (bár kérdéses, hogy ez esetben képes lenne-e kozmikus üzeneteket küldözgetni) a prímekkel sem fog törődni. Másfelől: legalábbis megpróbálhatunk egy alacsonyabb szinten: az összeadás és kivonás szintjén valami, a prímekhez hasonlót, illetve egy olyan megoldást találni, ahol a csupa 1-esnél kevésbé érdektelen építőkövekre tudjuk lebontani a számokat, és én ehhez kiindulási pontként a pozitív egész számokat tartalmazó számegyenest választottam.
Szabályként pedig azt, hogy a számnak a nála értelemszerűen kisebbek számok egymást követő sorozatából kell összeállnia, így tehát 6 például 1+2+3-mal egyenlő. Ekkor azt találjuk, hogy az 1-nél nagyobb páratlan számok nagyon egyszerűen felépíthetőek: 3=1+2; 5=2+3, 7=3+4 (és így tovább). Az ilyen felbontást pedig jelölhetjük úgy az egyszerűség kedvéért, hogy 6=1_3; 7=3_4.
Eközben viszont lesznek olyan páros számok, melyek a számegyenes egy szakaszából nem konstruálhatóak meg: például a 4; a 8; a 16 stb. Nevezzük az ilyeneket az egyszerűség kedvéért „primitív prímeknek”.
A képet tovább bonyolítja, hogy ismét csak eközben akadnak majd olyan számok is, amelyek többféleképpen állíthatóak elő a számegyenes egy darabjából:  példának okáért: 15=7_8=1_5, ami egyben azt is jelenti, hogy a „közönséges számok” meg a „primitív prímszámok” mellé bevezethetünk egy harmadik kategóriát: a „kétszeres szakaszszámot” is, amelynek nem tudom, hogy mi felelhetne meg a szorzás világában.
A többszörös szakaszszámokkal kapcsolatban arra tippelek, hogy nincsenek háromszorosak vagy nagyobbak – de tudni persze nem tudom. Abban viszont egészen biztos vagyok, hogy ez a fentebb felvázolt is egy meglehetősen érdekes rendszer, még ha kissé mások is a jellemzői, mint a szorzásénak. De azért eléggé izgalmas ahhoz, hogy ne csak egy hipotetikus idegen civilizáció sugározzon felénk primitív prímeket vagy éppen kétszeres szakaszszámokat, hanem mi is elbabráljunk velük.

2013. május 16., csütörtök

A számok formája

Egy John Langdon nevű grafikus az egész életművét az ún. ambigramokra építette: ezek olyan szövegek, melyek a megfelelő tipografizálásnak köszönhetően fejjel lefelé is olvashatóak.
Nos, egyes számok fejre állítva is ugyanazok maradnak. Ilyen a 0 és a 8 (meg némi jóindulattal az 1); a 6-os és 9-es pedig egymást adják ki. Ennek megfelelően 1691 például fejre állítható évszám. Ugyanilyen legközelebb a 6009-es és a 6119-es évek lesznek, tehát jócskán kell még várnunk rá – hacsak nem nekiállunk átalakítani a számokat. Elvileg ugyanis elképzelhető lenne egy olyan (amúgy nem különösebben izgalmas verzió), ahol
•    a számjegyek úgy vannak megalkotva, hogy felülnézetből is ugyanolyannak látsszanak; illetve
•    konstruálhatnánk olyanokat is, ahol az egyik szám a másiknak látszana megfelelő irányból nézve.
A nálunk szokásos vízszintes írásmódnál persze a fent – lent ellentétpárban gondolkodunk, de ha függőleges sorokat írnánk, akkor a jobb – bal tűnne izgalmasnak. Sőt, akár az olyan számjegyek gondolatával is eljátszhatnánk, ahol 90 fokos elforgatva kapjuk meg az egyikből a másikat. Ami leginkább annyiban érdekes, hogy ráirányítja a figyelmet arra, hogy bizonyos esetekben leginkább a hagyomány játszik szerepet – miként a számjegyek alakjánál is, ahol pl. a tízes számrendszerben az alak és a jelentés között a 0 és 9 közötti számoknál legfeljebb az egy esetében van némi. De elvileg nem lenne akadálya olyan számjegyek használatának sem, ahol a forma mutatná, hogy páros vagy páratlan-e (mondjuk az előbbi a 8-ashoz hasonlóan görbékből, az utóbbi egyenes szakaszokból épülne fel).
Amire azt lehet válaszolni, hogy teljesen felesleges ilyen információkat magába a szám alakjába beleépíteni, ám ott van a helyi értéken alapuló számrendszer, ahol a számok egymáshoz viszonyított pozíciója határozza meg az értéket, és ahol a konvenció szerint a helyi érték balról jobbra haladva nő.
Úgyhogy a formai megoldásokat vizsgálva akár át is térhetünk a számrendszerekre, hiszen itt is szinte korlátlanok a lehetőségeink. Egy Robert Forslund nevű szerző például azt vetette fel, hogy míg egyfelől nem éppen logikus, hogy a tízes számrendszerben a váltás a 9, nem pedig a 10 után következik, másfelől a 0 mint helyi érték (az ókori görög megoldáshoz hasonlóan) elhagyható, ha a számokat 1-től 9-ig használjuk, a 10-et pedig mondjuk az „A”-val helyettesítjük. Ekkor a 100-at pl. úgy írnánk, hogy 9A (értsd: 9*A+A); az 1000 pedig 99A lenne. Az ilyesmit szokás bijektív 10-es alapú rendszernek vagy zéró nélküli tízes rendszernek nevezni (de azért érdemes benne a nulla jelölésére külön jelet használni).
Hogy egy másik lehetőséget említsek: a negatív számon alapuló számrendszert 1885-ben Vitorio Grünwald találta ki, és a negadecimálisnál a 12,243 egyenlő azzal, hogy 10,000 + (-2,000) + 200 + (-40) + 3, vagyis 8,163 a hagyományos decimális rendszerben.
Azaz, mondhatni, itt maga a szám tárolja azt az információt, hogy pozitív-e vagy negatív.
Továbbá bevezethetnénk külön „helyi értéket” arra, hogy prímszám-e (pl. úgy, hogy 13P, 14N), és ennek talán még lenne is némi értelme, hiszen ezt máskülönben ránézésre sokszor nehéz eldönteni.
De próbálkozhatunk a hagyományos számjegyírási konvenciókat megváltoztatva azzal is, hogy két számjegyenként egymás alá, ellenkező irányba, busztrofedon-rendszerben írjuk őket (ahol előbb balról jobbra haladunk, a következő sorban jobbról balra, majd megint balról jobbra stb.).
Ekkor az első négyjegyű prímszám (1009) úgy nézne ki, hogy
10
90
és az emirpek analógiájára (amelyeknél az egyik prím a decimális rendszerben a másik tükörképe: 13 --- 31) eljátszhatnánk azzal, hogy olyan prímeket keressünk, amelyek egymásnak nem egy függőleges, hanem egy vízszintes tengely körüli tükröződései. Pl. az 1301-es prím busztrofedonnal:
13
10
az 1031-es prím pedig:
10
13.
Persze ebben a formában már az összeadás is másmilyen lenne, de az ötlet azért megért annyit, hogy leírjam, és különben is: a számítógépe feltehetően elboldogulnának vele?. Ráadásul miért is állnánk meg itt, és miért is ne képzelnénk el a többjegyű számokat térbeli alakzatokként? A nyolcjegyűekből például „kockaszámokat” csinálhatnánk, és azt vizsgálhatnánk, hogy attól függően, hogy miként „hajtogatjuk be” őket a 2x2 oldalú négyzetbe, milyen szabályosságok (szimmetriák) jelennek meg a 8 jegyű prímeknél… és még folytathatnám.

2013. május 2., csütörtök

Funes, az emlékező, avagy vers a hatvanegyes számrendszerről


„kidolgozott egy eredeti számrendszert, és alig pár nap alatt túljutott a huszonnégy ezren… Azt hiszem, zavarta, hogy az arab "harminchárom" jelölésére egyetlen szó és egyetlen jel helyett két jelre és két szóra van szükség, s elsősorban ez a gondolat vezette. Azután a többi számra is alkalmazta ezt az oktalan elvet. Hétezer-tizenhárom helyett például azt mondta, hogy Máximo Pérez; hétezer-tizennégy helyett azt, hogy A vasút; más számok helyett, hogy Luis Melián Lafinur, Olimar, kén, treff, a bálna, a gáz, a kávéskanna, Napóleon, Agustín de Vedia. Ötszáz helyett azt mondta: kilenc”.
(Borges: Funes, az emlékező)


Borges egy olyan számrendszert ír le, amely nem kettes, tízes vagy éppen hatvanas alapú, hanem legalább huszonnégy ezres, és ez érdekes kérdésekhez vezet.Méghozzá nem csupán olyanokhoz, hogy nem lehetne-e ezt sokkal – fogalmazzunk talán így – gazdaságosabban csinálni. Amennyiben abból indulunk ki, hogy az ábécében „az ortográfiai jelek száma huszonöt” (hogy Borges Bábeli Könyvtár című művét idézzem), úgy három helyi érték használatával ugyan nem, de néggyel minden nehézség nélkül jelölni tudnánk nemhogy 24,000, de akár 300 ezer számot is. Mármint ha megengednénk az aaaa „számnévtől” kezdve bármit a „zzzz”ig és „…” ig meg „a?i+”-ig bezárólag, ugyanis amennyiben bármelyik helyre 25 jel kerülhet, úgy 25x25x25x25 különböző változat lehetséges. Harminc ortográfiai jel esetén pedig három „helyi érték” is elég lenne az összes szám tárolásához, míg 155 ortográfiai jelnél kettő. És persze 24 ezer ortográfiai jel esetén eggyel is beérhetnénk . Az unicode aktuálisan mindenesetre 98,884 különböző grafikus karaktert tartalmaz (vagyis közel négyszer több jelet, mint Funes rendszere), és mivel a „kódterében” 1,114,112 hely van, ezért még jócskán bővíthető lenne. Vagyis, akár egy ekkora számrendszert is ráépíthetnénk úgy, hogy minden elemét külön névvel látjuk el; és persze azt is megtehetnénk, hogy például az ismert könyvek címét a szerzővel együtt rendelnénk hozzá a számokhoz jelölőként. A Google szerint 129,684,880 mű jelent meg 2010-ig, és ha előfordulhat is, hogy két, azonos nevű szerző azonos című könyvet ír (mivel vannak gyakori nevek, a címek ésszerű hossza pedig bár csak lazán, de azért korlátozott), még így is bőven százmillió fölé jutnánk. Az pedig ismét csak sok nagyságrenddel növelné meg a „kódteret”, ha az esetleg előforduló egybeesések kiszűrése után az egyes művek egyes sorait választhatnánk számnevekként.
És ez még mindig csak a kezdet. Borges fentebb már említett, Bábeli Könyvtár című novellájában ugyanis 25^1,312,000 (!) kötet van, és mivel az egyes művek esetleg mindössze egyetlen karakterben különböznek, nem a sorokat, hanem magukat a könyveket lenne érdemes a megnevezéshez használni. Ami persze még mindig nem „végtelenül sok”, és még akkor sem lesz az, ha a Borges-novellában szereplő 410 oldalas könyvek helyett negyven ezer oldalas enciklopédiákat használunk.
Ott van ugyanis például az úgynevezett Graham-szám, amely a matematikai számításokban valaha valóban szereplő legnagyobb szám, és még a leírásához sem lenne elég hely az ismert Világmindenségben. És még ha idáig minden számot megneveznénk is, bármikor szükség lehet egy még nagyobbra…
Azaz sokkal célszerűbb egy olyan megoldást használni – még amennyiben valamiféle szuper-Funesként képesek lennénk is minden egyedi számnevet megjegyezni –, ahol a rendszerből generálható le a szükséges név: ahol mintegy a rendszer logikája határozza meg, hogy az adott denotátumhoz (jelölő) milyen designátum (jelölt) tartozik.
Nem mellékesen a legalább a Dalgarno óta létező „filozófiai mesterséges nyelvek” is ilyesmivel próbálkoznak, hiszen mennyivel egyszerűbb lenne, ha egy új nyelv szavai helyett ugyanúgy csak a szabályokat kellene elsajátítanunk, mint a tízes számrendszernél, hogy aztán tetszőlegesen nagy számokat (illetve a nyelv esetében kifejezéseket) generálhassunk le. Amikor azonban a nyelvész Arika Okrent a valóságban is megpróbált egy rövid szöveget egy ilyen (esetében nem Dalgarno, hanem John Wilkins nevéhez fűződő) mesterséges nyelvre lefordítani, akkor azt tapasztalta, hogy „a nyelvet… konceptuális precizitás iránti igénye nagyon nehezen használhatóvá teszi. Mielőtt bármit mondanál, pontosan tudnod kell, hogy mit akarsz”, úgyhogy – legalábbis emberi lények számára – ez nem tűnik járható útnak.
És Funes-féle megoldás követése,ha a nyelv „lásd el önálló névvel” felfogását alkalmazzuk a számok megnevezésére, hasonlóképpen használhatatlan végeredményhez vezet – miként a fentebbiekből már kiderülhetett.
Egyfelől tehát az egyik szélsőség a nyelv, ahol jó közelítésben mindennek van neve, de nem adhatóak meg univerzális előírások a denotátum és a designátum összekapcsolására. A másik szélsőség pedig a számrendszer, mert itt nagyon is léteznek szabályok (és ettől lesz olyan hatékony az egész). Vajon milyen átmenetek léteznek e között a két szélsőség között?
Másfelől: a valaha használt legnagyobb számrendszer a hatvanas volt, amely többek között azért is jó, mert feltűnően sok (összesen 12) osztója van, tehát könnyű vele dolgozni (osztani), és a közelében lévők közül csak a 120 múlja felül a saját 16 osztójával.
Én viszont a játék kedvéért kitaláltam egy új számrendszert. Legjobb tudomásom szerint senki nem próbálkozott hasonlóval még akkor sem, ha az általam választott megoldás bizonyos értelemben a lehető legrosszabb. Ugyanis én a 61-ből indultam ki, és az bizony prímszám?.
A számok elnevezésére pedig egy verset írtam, és így a 0-nak az első szó („Vers”), az 1-nek az „a” felel meg – és így tovább egészen a 60-asig (=”szerelem”). Csak arra kellett ügyelnem, hogy ugyanaz a kifejezés ne szerepeljen kétszer – és közben még remekül is szórakoztam, és a játék akár ki is terjeszthető. Írhatunk pl. haikut a szintén inkább csak hipotetikusnak tekinthető tizenhetesről (5+7+5) csakúgy, mint ahogy bármelyik másikat is megverselhetjük. Amit lehet, hogy egyszer meg is fogok tenni – elvégre ha van piem, akkor miért is ne lenne ilyen verstípus is. De addig is:

Vers a hatvanegyes számrendszerről
Ideje belátnunk: egyes számrendszerek
olykor akár versek is lehetnek,
miként ez itt, amely szavainak száma
(ha címsoráig bezárólag minden
 belekalkuláltatott)
hatvanegy: versem lehetőségeinek határa.
És persze számrendszerem kicsinyke világa
szintén korlátozott:
ebben majdhogynem biztos vagyok.
De azért nem kizárt, hogy tévedek, hiszen
ki tudja, mi jöhet még. Elvégre ezzel
bíbelődni nekem:
nem hozzáértés, hanem
játék vagy szerelem.

2013. április 23., kedd

Jelölje x a matematikát?

 „Tételezzük fel, hogy az x a példában szereplő bárányok száma”, mondja a John Edensor Littlewood által a matematikai érdekességekről írott könyvben egy tanár, mire a diák azt válaszolja, hogy „Nem, inkább tételezzük fel, hogy az x nem a bárányok száma”. Wittgenstein szerint ez egy teljes értékű filozófiai vicc, és nem mellékesen nekem erősen úgy tűnik, hogy bizonyos értelemben a matematika is ilyen.
Ott vannak például az osztók. Az ókori Hellászban úgy gondolták, hogy a mi kifejezésünkkel élve a természetes számoknak két alapvető tulajdonságuk van: az, hogy mekkorák; illetve, hogy milyen számokkal oszthatóak. Ez a megközelítés kimondottan termékenynek bizonyult, mivel így gyorsan eljutottak nem csak a tökéletes számokhoz, ahol a szám osztóinak összege – magát a számot nem számolva ide – azonos a számmal: ilyen például a 6 (1+2+3). De ugyanígy a barátságos számokhoz (ahol az egyik szám osztóinak összege azonos a másik szám osztóinak összegével; ilyen a 220 és a 284); továbbá a ma alapvető jelentőségűnek tekintett prímszámokhoz is.
Ezt a koncepciót persze, ahol a számokon és osztóikon van a hangsúly, ki is terjeszthetjük. Feltehetjük például azt a kérdést, hogy
•    mely számok egyenlők egy, náluk kisebb szám osztóinak összegével (ezt jobb híján „egyirányú barátságos számnak” neveztem el, és például a 16 egyenlő a 12 osztóinak összegével);
•    mely számok esetén igaz, hogy az A szám + B szám osztói összege = B szám + A szám osztói összege (pl. 2 és 4);
•    mely számoknál látjuk azt, hogy az egyik szám + a másik osztóinak összege = másik szám + az egyik osztói összege (ilyen többek között a 3 és 20);
•    mely számok esetén találjuk azt, hogy az egyik szám + osztói összege = a másik szám + osztói összegével (pl. 6 és 11).
Amiben nem csak az az érdekes, hogy léteznek ilyen számok; illetve, hogy innentől kezdve talán leginkább történeti véletlennek tekinthető, hogy míg a barátságos számok népszerűek voltak, addig mondjuk az „egyirányú barátságos számok” nem kaptak különösebb figyelmet. Pedig miközben egyszerűen előállíthatóak, aközben – legalábbis nekem – ugyanúgy nem sikerült szabályt találnom rá, hogy hol fognak legközelebb felbukkanni, mint ahogy a prímekre sem ismert ilyen szabály. Erős a gyanúm, hogy a természetes számokból kiindulva és egyszerű szabályok alapján is könnyű olyan rendszereket létrehozni, ahol az a legegyszerűbb (vagy éppen az egyetlen) módja annak a kiderítése, hogy egy adott szám ilyen vagy olyan-e (mondjuk prím vagy „egyirányú barátságos szám”), ha kiszámítjuk. Értsd: a prímszámok „előre jelezhetetlensége” talán nem is meglepő és unikális tulajdonság (mármint ha igazam van).
Ráadásul eközben mintha csak a „legyen a bárányok száma x” helyzet állna elő. Ugyanis az osztókat (és ennek megfelelően az osztók összegét) többféleképpen is számolhatjuk.
Az egyik szerint az számít a szám osztójának, amivel a számot osztani lehet, vagyis ide tartozik az 1 meg maga a szám is (és az osztók ilyetén számolását a matematikában sigma(n)-nel jelölik). Ehhez képest az ókori görög matematikában az 1-et az osztók közé számolták, magát a számot viszont nem: ezért is lehetett a 6 tökéletes szám (közbevetőleg: egyetlen páratlan, tökéletes számot sem ismerünk, és Carl Pomerance-nak van egy levezetése, amely alapján valószínűnek tűnik, hogy ilyen nincs is).
De ha magát a számot nem tekintjük osztónak, akkor miért tekintenénk annak az 1-et? Elvégre a matematikában mindkettő „triviális” osztónak tekintik. Így számolva viszont legalább 1000-ig (tovább nem néztem meg) egyetlen tökéletes szám sem fog felbukkanni.
És ez esetben viszont tényleg elgondolkodhatunk rajta, hogy mit jelöljön, vagy ne jelöljön az a bizonyos, a bárányos viccben szereplő x.

2013. április 16., kedd

Eukleidész és az origami

1847-ben egy Oliver Bryne nevű angol matematikus, aki amúgy Őfelsége alkalmazottjaként a Falkland-szigetekért felelt, megjelenttette az új illusztrációkkal ellátott Eukleidész-féle Elemeket. Ez „az egész 19. század egyik legkülönösebb és legszebb műve volt”, amelyben pirossal, sárgával, kékkel és feketével színezték ki a szögeket, területeket, vonalakat (és helyettesítették a betűkkel történő jelölést). Az eredmény: „Eukleidész sokkal intuitívabb lett… esztétikailag [pedig] jóval megelőzte a saját korát. A rikító, tiszta színek, aszimmetrikus tördelés, absztrakt formák és az üresen hagyott térrészek [mintegy] előre vetítették számos 20. századi festő műveit”, illetve a Bauhaust és a De Sijlt, mondja Alex Bellos brit tudománynépszerűsítő író.
Viszont bár azon kevés angol könyv egyike volt, amelyet a Londoni Világkiállításon is bemutattak, a kinyomtatott példányok háromnegyed része raktáron maradt, és két évvel később a kiadó csődbe is ment, és az egész a számomra a leginkább az érdekes, mert a külső megjelenése mellett miért is ne gondolhatnánk újra az ógörög geometriát más szempontból is?
Különösen, hogy a Philip Davis – Reuben Hersh szerzőpáros megfogalmazásával élve „Eukleidész mítosza” azt a meggyőződést jelenti, mely szerint az Elemek „az egész világra vonatkozó világos és kétségbevonhatatlan igazságokat tartalmaznak”. Valójában azonban legalább három, különböző típusú kérdést érdemes feltenni: mennyire szükségszerűek az ebben használt
•    kézzelfogható eszközök, melyeket az eukleidészi geometria „előállítására” szolgálnak; mennyire kézenfekvőek és jól megalapozottak a
•    matematikai definíciói és fogalmai; végezetül pedig léteznek
•    magára a matematika mibenlétére vonatkozó megfontolások is (amely leginkább a matematika filozófiához tartozik).
Ami a fentebbiek közül az elsőt illeti, az „eukleidészi szerkesztés” kizárólag a körző és az egyélű vonalzó (bizonyos módokon történő) használatát engedi meg. Márpedig ez nagyon is komoly korlátozást jelent annak ellenére is, hogy hatékonynak bizonyult mint kiindulási pont. És olyan következményei is vannak, mint mondjuk a pi kitüntetett szerepe, hiszen mennyire más lenne az egész geometria, ha a körző helyett ad absurdum egy rögzített szöggel meg egy rugalmas zsinórral dolgoznánk?
Amihez persze azt is érdemes hozzá tenni, hogy a hagyományos alapoktól el lehetett jutni a nem eukleidészi geometriákhoz – egy papírhajtogatáson alapuló „origami-geometriából” azonban nem valószínű, hogy sikerülne utat találnunk a hagyományos geometriákhoz.
Ugyanekkor vannak olyan feladatok, melyeket kizárólag „eukleidészi eszközökkel” nem tudunk megoldani. Ilyen
•    a déloszi probléma (ahol egy kétszeres térfogatú, kocka alakú oltárt kellene elkészíteni);
•    a szögharmadolás;
•    a kör négyszögesítése és
•    a szabályos hétszög szerkesztése
is.
Ami persze nem jelenti azt, hogy egyes, a „körzős-vonalzós” geometrián belül megoldhatatlan problémákra nincs válasz máshol. Margherita P. Beloch olasz matematikus még 1936-ban bebizonyította, hogy az „origami-geometria” segítségével elő tudunk állítani olyan kockát, amelynek a térfogata a kétszerese az eredetinek, és ma már, mondhatni, külön irányzat épült a papírhajtogatásos módszerekre, bizonyításokra meg tételekre. És itt nem is annyira önmagában az eredmény érdekes, hiszen a gyök kettőhöz (ld. kockakétszerezés) máshogy is eljuthatunk, hanem inkább az, hogy eközben valamit valamiért. Egy origami-geometriában az egyre többoldalú, szabályos sokszögeken keresztül eljuthatnánk ugyan a körig (sőt, a pi értékének kiszámításához is), ám egyáltalán nem biztos, hogy a kör ugyanolyan centrális alakzata lenne a geometriának, mint így. Sőt, én személy szerint szinte biztos vagyok benne, hogy nem.
És akkor arról még nem is beszéltünk, hogy hátha a Beloch-féle úton továbbhaladva olyan kérdéseket vethetünk fel, amelyeket a hagyományos megközelítés nem tesz lehetővé – és ezzel még mindig nincs vége a kérdéseknek.
Reuben Hersh a matematika mítoszai között említi, hogy „az általunk ismert matematika az egyetlen lehetséges”. Ez azonban nem igaz, hiszen miként a fentebbiekből már kiderülhetett, a felhasznált eszközök (ld. körző és vonalzó vs papírhajtogatás) befolyásolhatják, hogy mi számít jó vagy érdekes problémának.
Illetve azt is megtehetjük, hogy nem az eszközöket, hanem az alapfogalmakat értelmezzük újra: a fraktálgeometria például értelmezhető úgy is, mint ahol elvetjük azt a hagyományos (eukleidészi) felfogást, mely szerint valami vagy nulla (pont); vagy 1 (egyenes); vagy 2 dimenzióval (sík) rendelkezik stb., és e helyett azt mondjuk, hogy léteznek nem egész számú dimenziók is. Ami persze egyben azt is jelenti, hogy ha a Bólyai-Lobacsevszkij- féle az eukleidészi geometria keretrendszerén belülről érkezett egy posztulátum átértelmezésével (és honnét máshonnét is érkezhetett volna), akkor Mandelbrot minőségileg mást csinált, ugyanis mintegy az alapokat újraértelmezve, a hagyományos felfogás mellé állította a sajátját – és Poincaré talán még inkább ugyanezt tette a topológia („gumigeometria”) megalkotásakor.
Mindenesetre innentől kezdve elkezdhetünk azon tűnődni, hogy milyen, „más eszközalapú”; illetve más, „fogalom alapú” geometriák (mint amilyen a fraktálgeometria is) képzelhetőek el, és erős a gyanúm, hogy még mindkét területen rengeteg lehetőség van.