A Turing-teszt az e-társadalom napi gyakorlata (e-világi gondolatok/1)
E-VILAG
vissza


A Turing-teszt az e-társadalom napi gyakorlata
(e-világi gondolatok/1)


A.M.Turing születésének 90. évfordulójára ajánlva

Alan Mathison Turing 1950-ben megjelent [TURING 50] dolgozatát ezzel a mondattal kezdte: "Szeretném, ha elgondolkoznának azon, hogy tudnak-e a gépek gondolkodni ?"
Ez a nyilvánvalóan provokatív kérdés abban az időben nagy meghökkenést keltett, hiszen az akkor még újszülött korban lévő digitális számítógépek megjelenéséig a gépeket csaknem kizárólag mechanikus feladatok elvégzésére tervezték és alkalmazták, így nem volt oka az intellektuális képességek feltételezésének.
Ebben a dolgozatomban szeretném megmutatni, hogy A.Turing messze korát megelőző gondolkodása és tudományos fantáziája sem volt elegendő annak a technika-fejlődési trendnek az elképzeléséhez, amely az 1950-es évektől az ezredforduló infokommunikációs társadalmához vezetett. Azt sem sejthette, hogy saját becsléseit, melyeket a 2000. évre szánt, alaposan felül kellene bírálnia, mivel a fejlődés ütemét a mesterségesen felgyorsult világ messze túlteljesítette. Így mára, az általa megalkotott Turing-teszt már nem csupán elmeélesítő gondolatkísérlet, hanem a globális e-kommunikációs rendszerek napi gyakorlata. Az 50 évvel ezelőtt meghökkenést keltett kérdést, a mai és várható jövőbeli viszonyoknak megfelelően új tartalommal kell feltenni: "Szeretném, ha elgondolkodnának azon, hogy vajon eldönthető-e, hogy valós vagy virtuális információk tömege gyűlik a globális e-kommunikációs rendszerek fekete dobozában?"
A meghökkenést azonban annak a felelősségérzetnek kell felváltania, amit az a rádöbbenés indukál, hogy az erre a kérdésre adott válasz (vagy éppen e kérdés megválaszolhatatlansága!), annak a jövendőbeli társadalmi formának a lényegét tárja fel, amelynek történelmi léptékkel mérve, első másodperceit éljük: ez az információsnak nevezett, e-kommunikációs társadalom.

Gondolatok a Turing-teszt előtt

Kivételesen most nem engedjük elkalandozni gondolatainkat több ezer éves távlatokba, a "már az ókori görögök is ismerték" szokásos fordulatot használva, bár valóban az emberiség a kezdetektől alkalmazott a számolás megkönnyítésére különböző eszközöket (ilyenek voltak a legrégebbi ismert eszközök, a rováspálcák, majd az abakusz).
Jelen témánk szempontjából azonban csupán vázlatosan teszünk említést azokról az eszközökről, amelyek már a mai értelemben is számoló-gépeknek nevezhetők. Ehhez elegendő a XVII. századig visszapergetni a naptárt, amikor 1642-ben Blaise Pascal (1623-1662) megszerkesztette fogaskerekes összeadógépét, az arithmométert. Ennek tökéletesített formája volt 1671-1673-ban Gottfried Wilhelm Leibniz (1646-1716) összeadó és szorzógépe, amellyel mind a négy alapműveletet el lehetett végezni, sőt Leibniz már ekkor javasolta a számológépeknél a 2-es számrendszer használatát .

Ezekkel a fogaskerekes eszközökkel egyre több és egyre nagyobb számokon végzett műveleteket lehetett a fejben, vagy papíron történő számoláshoz képest igen gyorsan elvégezni, ezért a XVIII. században, főleg Franciaországban már sorozatban gyártottak ilyen készülékeket.
Nagy lépést jelentett a változtatható fogazású, majd a lyukkártyás vezérlésű gépek bevezetése. Az első ilyen gépek Joseph Marie Jacquard (1752-1834) nevéhez fűződnek, aki 1810-ben elkészítette első lyukkártya vezérlésű szövőgépét, amely már lehetővé tette a selyemszövetek különböző mintázatokkal történő automatikus gyártását. A lyukkártyás vezérlés ötlete és technikája a szórakoztató iparban is megjelent például a XVIII. századi zenegépekben.

A számítástechnika és így a "gondolkodó gépek" felé vezető út szempontjából igazi áttörést Charles Babbage (1792-1871) angol matematikus tevékenysége jelentett, akinek először jutott eszébe, hogy a lyukkártya alkalmas lehet az elemeire bontott számítási eljárások gépbe táplálására is. A mintegy tíz évi munkával készített első gépe, a Difference Engine képes volt nagy számtáblázatok automatikus elkészítésére, ami méltán váltotta ki a korabeli csillagászok elismerését, melynek kifejezésére a csillagászok egyesülete aranyéremmel tüntette ki. Babbage azonban gépét továbbfejlesztette és grandiózus tervekkel foglalkozott, melynek eredménye, új számítógépe, az Analytical Engine sohasem készült el, mivel az 1000 tengely és az 50 helyiértékes számokhoz tartozó fogaskerékrendszer technikai kivitelezése olyan technikai precizitást igényelt, amelyre az akkori ipar képtelen volt. Így Babbage gépe méltánytalanul feledésbe merült, pedig az az automatizált számítógépek ősének tekithető. Babbage ugyanis felismerte azt, hogy szükséges a számítási folyamat közben keletkező részeredmények tárolása is. Ugyanakkor az Analytical Engine valósította volna meg először azt az elvet, hogy a gép előre meghatározott (és lyukkártyák segítségével változtatható!) algoritmus szerint végezze a számításokat, vagyis mai fogalmaink szerint, ez lett volna az első programozható "számítógép". Babbage gépe tehát szerkezeti elemeit (architektúráját) tekintve (aritmetikai egység, operatív tár, vezérlő egység), pontosan megfelelt a napjainkban is használt, úgynevezett Neumann elvű számítógépeknek. Mindez szinte pontosan 100 évvel Neumann János előtt!
A Babbage-nél még mechanikus elemekből felépülő lyukkártyás rendszert csupán az elektronika felhasználásával modernizálta a XIX. század végén, az Amerikai Statisztikai Hivatal igazgatója Herman Hollerith (1860-1929), aki 1889-ben a népszámlálás adatainak feldolgozására egy rendezőgépet dolgozott ki. Minden állampolgárhoz egy adatsort (számsort) rendelt, amely számokat egy 80 oszlopból és 10 sorból álló kártyán lyukasztással rögzítettek. A rendezőgép olyan elektromágneses szerkezet volt, amely a kártyák oszlopainak megfelelő távolságokban pontosan 80 letapogató fémtűvel rendelkezett, így amikor a görgősoron egy kártya a tűk alá került, akkor azok a tűk, amelyek a kártyán lyukat "találtak", zárták az elektromágnes áramkörét, amely azon a padon, amelyen a kártya elhaladt, kinyitotta a lyukasztásnak megfelelő ajtót, amelyen át a kártya a neki megfelelő dobozba esett .

Az elektromosság alkalmazása felgyorsította a számológépek fejlődését és a XX. század elején mind tökéletesebb elektromechanikus gépeket készítettek. Az Amerikai Egyesült Államokban Howard Hathavay Aiken elkészítette a MARK-I és MARK-II elektromechanikus analitikus számítógépeket, amelyekben egy összeadáshoz 0,3-0,5 sec, egy szorzáshoz 5-6 sec, míg egy osztáshoz 15 secundum kellett.

Norbert Wiener (1894-1964) 1940-ben megfogalmazta a korszerű számítógépek "5-parancsolatát":

1. A számítógép aritmetikai egysége numerikus legyen.
2. A mechanikus és elektromos kapcsolókat fel kell váltani elektroncsövekkel.
3. Az aritmetikai műveletek elvégzésére a 2-es számrendszert kell alkalmazni.
4. A műveletsort a gép emberi beavatkozás nélkül, automatikusan végezze úgy, hogy a közbenső logikai döntéseket is be kell táplálni. (Mai szóhasználattal, ez a program.)
5. Legyen lehetőség az adatok tárolására, könnyű előhívására és törlésére.


A II. világháború alatt rohamosan fejlődő hadiipar sorra vetette fel a rengeteg számolást igénylő feladatokat (például a nagy hatótávolságú lövedékek lőelemtáblázatai, lövedékek gyors röppályaszámítása, az atombomba kísérletek számításairól nem is beszélve), amelyek sürgették a "számítógépek 5-parancsolatának" gyakorlati megvalósítását.
Így készült el Neumann János és Herman H. Goldstine tervei alapján 1943-1946 között az első elektronikus számítógép, az ENIAC (Electronic Numerical Integrator And Calculator), a philadelphiai Pennsylvania Egyetemen. Az ENIAC egy elektronikus kolosszus volt, amely 30 tonnát nyomott, egy több mint 30 méter hosszú terem kellett az elhelyezéséhez és a 18000 elektroncső 100-150 kWó energiát fogyasztott (ezért a hűtése igen nagy problémát jelentett).

Az ENIAC még nem felelt meg egészen a "számítógépek 5-parancsolatának", hiszen aritmetikája 10-es számrendszerben működött. Számítási teljesítménye azonban a MARK-I és MARK-II gépekéhez viszonyítva lenyűgöző volt, az összeadást és kivonást 10 tizedes pontossággal 0.0002, a szorzást 0.0023 secundum alatt végezte el. Memóriájában mindössze húsz darab tízjegyű számot lehetett tárolni, így program tárolására nem volt alkalmas, a programozását egy huzalos dugaszolótábla tette lehetővé.
Ezen adatok ismeretében még nagyobb tisztelettel kell adóznunk C. Babbage száz évvel korábbi teljesítménye előtt és egyáltalán nem csodálkozhatunk azon, hogy annak megvalósítása akkoriban kudarcba fulladt.

Neumann János és H.H. Goldstine az 1940-es évek elejétől foglalkoztak a számítógépek elméleti és gyakorlati problémáival. Kutatásaik eredményét egy bizalmas jelentésben foglalták össze 1948-ban, amely először tartalmazta az univerzális, belső programvezérlésű, elektronikus, digitális számítógép tervét. Ebben egyértelmű érvekkel alátámasztva állást foglaltak a már Leibniz által ajánlott bináris számrendszer mellett, valamint megoldották a programtárolás módját is. Így lehetővé vált az adatok és részeredmények tárolásán kívül, a végrehajtandó utasítások tárolása is a számítógép memóriájának egy erre fenntartott részében.
Az ENIAC tapasztalatait felhasználva, már ezen elveket valósította meg, az 1948-1949-re elkészült EDVAC (Electronic Variable Automatic Computer), amelyet tervezője Neumann János tiszteletére "Johnnyac"-nak is hívtak .

Érdemes felfigyelni ez utóbbi elnevezések közötti (látszólag jelentéktelen) eltérésre, amely már tükrözi azt a jelentős különbséget, amely a mind nagyobb teljesítményű, a szó szoros értelmében vett számoló gépek (minél nagyobb számokkal, minél gyorsabban végzett műveletek) és a változtatható és tárolt programokkal programozható számítógépek között van.
Ez az a pont, ahol kezd versenytárssá válni a gép és az ember, ahol már a nagy mennyiségi teljesítményekre képes automatikusan működő, de alapjában véve egyszerű gépek helyére lépnek a programvezérelt automaták. Az automaták már az 1800-as években Kempelen Farkas zseniálisan szélhámos "sakkozó automatája" idején is nagy csodálattal töltötték el az embereket. Később a logikai gépek, majd az emberi funkciókat modellező automaták, már elkerülhetetlenné tették a programnak, mint matematikai fogalomnak a definiálását.
Éppen Alan Mathison Turing (1912-1954) volt az, aki az 1930-as években elsőként adta meg a program és a programozható számítógép matematikai modelljét, a róla elnevezett Turing-gép definícióját. Ez a gép tulajdonképpen egy absztrakt automata, amelyre teljesül az a meghökkentő tétel, melyet Alonzo Church amerikai matematikus 1936-ban állított fel és amely szerint minden programhoz található egy azzal ekvivalens Turing-gép és fordítva, minden Turing-gép egy programot (algoritmust) valósít meg, azaz a Turing-gép tökéletes modellje a program fogalomnak. A Turing-gép, mint minden igazán zseniális elképzelés, könnyen leírható: Képzeljünk el egy olyan automatát, amely véges sok szimbólumot (jelet) képes feldolgozni úgy, hogy egy adott időpillanatban egyetlen szimbólumot képes leolvasni, vagy felírni egy elvileg végtelen szalagra. A feldolgozást egy speciális jel, a STOP jel feldolgozásakor fejezi be.

Ebben az absztrakt definícióban valóban benne van a jelek hosszabb jelsorozatokká való összeláncolásának és így tetszőleges bonyolultságú utasítások létrehozásának és tárolásának, a végrehajtás közben keletkezett jelek (adatok) tárolásának lehetősége, vagyis mindazon funkciók elméleti lehetősége, amelyeket egy évtizeddel később, Norbert Wiener a korszerű számítógépek "5-parancsolata"-ban foglalt össze.

A programok, az automaták, a számítógépek számtalan elméleti kérdést vetettek fel, amelyek megválaszolására részben a matematikai logika, az absztrakt algebra és más matematikai területek segítségével kerestek válaszokat, részben egészen új tudományterületek születtek, mint például az automata elmélet, a kibernetika, a számítógép tudomány, vagy az információ elmélet.

Turing-teszt

A programozható gépekkel kapcsolatban, szintén a XX. század 30-as éveiben vetődött fel a kérdés, hogy létezik-e (létezhet-e) olyan programozási feladat, amely nem oldható meg, azaz a Church-tézis szerint, létezik-e olyan programozási feladat, amelyhez nem található Turing-gép ?
Nos, 1937-ben A.M. Turing bebizonyította, hogy a válasz "igen", mivel azok és csak azok az algoritmusok programozhatók, melyekhez úgynevezett rekurzív függvények tartoznak. A matematikának azt a területét, amely eme kérdések egzakt tárgyalását tűzte ki céljául, kiszámíthatóság elméletnek, algoritmus elméletnek, illetve Turing előbbi tétele szerint a rekurzív függvények elméletének nevezzük. Ezek az elméleti területek leegyszerüsítve a következő kérdéssel foglalkoznak:
Melyek azok a számítások, amiket a számítógép el tud végezni, ha minden gyakorlati jellegű korláttól eltekintünk (mint például a rendelkezésre álló idő és tárkapacitás) ?

A.M. Turing tehát kereste saját konstrukciójának a korlátait és egyben a mesterséges intelligencia kutatások előfutárának is tekinthető, mivel Ő vetette fel elsőként azt a kérdést, hogy mit is jelent a "gépi intelligencia" ?
Az első megválaszolásra váró kérdés persze az, hogy létezik-e ilyen, hiszen a máig létező többségi felfogás szerint intelligenciával csupán az ember rendelkezik, ezért a "gépi intelligencia" szóösszetétel értelmetlen. Turing azt is jól látta, hogy az intelligencia és gondolkodás fogalmak egymástól elválaszthatatlanok, ezért fogalmazta meg 1950-ben megjelent, klasszikussá vált cikkében, a dolgozatom elején idézett, egyetlen mondatba sürített kérdését: "… tudnak-e a gépek gondolkodni ?"
Ezzel a kérdéssel és az ezt követő gondolataival indította útjára, a napjainkban egyre aktuálisabb mesterséges intelligencia kutatást. Turing szerint a "gondolkodni" szó inkább érzelmi kérdéssé teszi ezt az egész kérdéskört, ezért el is veti, mint túlságosan bizonytalan (szubjektív) fogalmat. Ugyanakkor az 1950-es években sokan úgy gondolták, hogy Kurt Gödel (1906-1978) nemteljességi tétele a mesterséges intelligencia lehetetlenségét is bizonyítja:
Mivel a mesterséges intelligencia mindig "egy program", azaz egy Turing-gép (Church-tézis). Az ebben a gépben tárolt axiómarendszer meghatároz egy "nyelvet", amely nyelven megfogalmazható olyan kérdés, amelyre ebben az axiómarendszerben nem vezethető le igen-nem jellegű válasz (Gödel-tétel). Tehát e mesterséges intelligencia számára érthető nyelven, megfogalmazható olyan kérdés, amelyre nem tud sem igennel, sem nemmel válaszolni !

Bár ez az érvelés több sebből vérzik, témánk szempontjából csupán egyet emelek ki ezek közül: Ha a mesterséges intelligenciát, mint az emberi intelligenciát utánzó konstrukciót fogjuk fel, akkor ennek megvalósíthatatlanságát nem bizonyítja az az érv, hogy bizonyos kérdésekre nem tud felelni, hiszen ez az emberi gondolkodásnak is jellemzője.

A rekurzív függvények elméletének, a matematikai nyelvészetnek jelentős alakja, a magyarországi kibernetikai iskola megalapítója, Kalmár László (1905 - 1976) az 1948-as amszterdami Filozófiai kongresszuson tartott előadásában bebizonyította, hogy a Church-tétel a Gödel-tételből levezethető, így Church tétele nem bizonyíthatja abszolút eldönthetetlen probléma létezését.
Kalmár László hangsúlyozta, hogy ezeket a tételeket (Gödel, Church) szabatosan úgy kellene megfogalmazni, hogy a kérdéses problémasereg általános rekurzív eljárással nem oldható meg, nem pedig abszolút megoldhatatlanságról beszélni (lásd [KALM 86]).

Turingot az ellenvetések és főleg a "gépi intelligencia" fogalmának bizonytalansága csak inspirálta egy új megközelítés felvetésére. Ennek lényege, hogy e szubjektív és ezáltal tudományosan megfoghatatlan fogalmak helyett, egy olyan módszert kell konstruálni, amelyet jól definiált technikai fogalmakkal lehet leírni. Javaslata szerint ez az általa "utánzási játéknak" nevezett módszer, melyet manapság Turing-teszt, vagy Turing-próba néven ismerünk. A Turing-teszt lényege: Képzeljük el, hogy egy C számítógép és egy E ember két külön helyiségben van elkülönítve és mindketten elektronikus kapcsolatban vannak egy harmadik helyiségben levő K személlyel, aki elektronikus úton kérdéseket tehet fel mindkettejüknek. K-nak az a célja, hogy a kérdéseire érkező válaszokból meg tudja különböztetni, hogy mely válasz származik C-től és melyik E-től.

A teszt egyik óriási előnye, hogy az intelligenciáról, gondolkodásról való elmeélesítő gondolatkísérletek síkjáról, gyakorlatban kivitelezhető és a probléma lényegét megragadó eszközt kaptunk a kezünkbe. Hiszen most már az eredeti kérdés helyett azzal a jól kezelhető kérdéssel állunk szemben, hogy "van-e olyan gép, amely ezt a játékot jól tudja játszani?"
Az eredeti Turing probléma valóban a gépi és emberi intelligencia megkülönböztetése volt. A mesterséges intelligencia kutatások célkitűzése tehát, a gépek alkalmassá tétele arra, hogy az embert minél pontosabban tudják utánozni.
Turing eme korszakos cikkében kifejezte meggyőződését, hogy a XX. század végére a gépek már elég jól fogják játszani ezt a játékot ahhoz, hogy egy átlagos kérdezőnek nem lesz 70%-nál több esélye az azonosításra 5 percnyi kérdezés után.


3. A Turing-teszt és az e-kommunikáció

Ha A.M.Turing megérte volna éppen 2002-ben esedékes 90. életévét, valószínüleg elismerné, hogy fantáziája nem volt elegendő ahhoz, hogy előre lássa azt a technikai robbanást, amely a számítástechnikában, elektronikában, kommunikáció-technológiában bekövetkezett, s amelynek eredményeként a jelenünk, mindennapjaink részévé, napi gyakorlattá vált a Turing-teszt.
A mai információsnak nevezett, információ alapú, vagy inkább e-kommunikációs társadalom ugyanis egy "FEKETE DOBOZ" modellt valósít meg. Ebben a modellben (lásd 2.ábra) egy óriási információ tárolóval (ez a "fekete doboz") kommunikál minden felhasználó úgy, hogy a felhasználók EGYMÁS SZÁMÁRA valójában ISMERETLENEK és csak a "fekete doboz"-hoz való csatlakozás követel meg egyszerűbb, vagy szigorúbb azonosítást ("bemutatkozást"), fordítva ez ellenőrizhetetlen. Ma az internet egyik fő vonzereje a "globális névtelenség", ami egyúttal számos visszaélés és bűncselekmény forrása is.
A modell tehát úgy működik, hogy mindenki egy közös dobozba ("fekete doboz") helyezi be az információit (lehet az személy, cég, intézmény, stb.) és ebből mindenki annyit vehet ki, amennyire a "fekete doboz" engedélyt ad.

A globális kommunikációs modellje pontosan úgy néz ki, mint egy megsokszorozott Turing-modell, ahol mindenki a géppel kommunikál elektronikusan, így mindenki lehet kérdező és kérdezett, a gép pedig összegyűjti és tárolja az információt. A globális modell tehát tömören leírható Arkagyij Rajkin szavaival: "Én vagyok itt (K). De ki van odaát ?!"

A válasz, mint látni fogjuk az információs társadalom kulcskérdéséhez vezet. A.M.Turing idézett 1950-es cikkében tesztjét így fogalmazta meg:
"Azt állíthatjuk, hogy egy gép gondolkodik, ha kérdéseket tehetünk fel neki, éspedig tetszőleges kérdéseket és az úgy válaszol, hogy ha nem 'nézünk oda', nem tudjuk, hogy a felelet géptől, vagy embertől származik-e."

Turing gondolatmenete látnoki volt, ugyanis tökéletesen illeszkedik a jelen e-társadalmának felvázolt globális kommunikációs hálózataira. A kommunikációs hálózat minden felhasználója valóban egy monitor előtt ül és kérdéseket tesz fel. A monitoron megjelenő válaszok tartalmából azonban, ha odanézünk sem dönthető el biztosan a válaszoló "személye", így annak valódi, vagy virtuális volta sem ! (Természetesen itt a "személy" jelölhet csoportot, céget, szervezetet, stb.) A válaszoló személyének bizonytalansága tehát felveti az ÁLTALA KÉPVISELT INFORMÁCIÓK VALÓDISÁGÁNAK, A VIRTUÁLIS INFORMÁCIÓKNAK a problematikáját. Így válik ez az elektronikus kommunikációs rendszerek és ezáltal az információ alapú társadalom kulcskérdésévé.
A globális e-kommunikációs rendszerekben elhelyezett gépek, mint információgyűjtő fekete dobozok, túl jól játszák az "utánzó játékot", így sajnos a mesterséges és természetes intelligencia megkülönböztetésének problematikája sajnos hosszú időre a titkos kutatólaboratóriumokba szorult, míg eme e-kommunikációs rendszerekben a "Valódi vagy virtuális információ?" alapkérdés váltja fel. Ez egy egészen új kihívás.

Egy olyan társadalomban, amely az információk szabadon áramló, tömeges áradatára épül (információ alapú társadalom), reménytelen vállalkozás minden információ valódiságát egzakt módon ellenőrizni, így egyre nagyobb jelentőséggel bír az információforrások "beolvadása" a "fekete dobozba", amellyel az információ így szinte teljesen személytelenné válik.
A kérdező számára tehát már nem az a kérdés, hogy emberi, vagy gépi intelligenciával áll szemben, hanem azt kellene eldöntenie, hogy a kérdéseire érkező válaszok valódi, vagy virtuális "személytől" származnak, azaz döntéseket építhet-e rájuk, vagy sem. A kérdező így teljesen kiszolgáltatott helyzetbe került, ami döntései szempontjából is jelentős bizonytalanságot jelent.



Az új kérdés: Valós vagy virtuális információ ?

Ez a kérdés nem azonos a "természetes vagy mesterséges?"-sel, nem azonos az "igaz vagy hamis?"-sal, ez a kérdés nem csupán a kommunikálókra és nem csupán a kommunikáció tartalmára, hanem magára a kommunikációra vonatkozik.
Az emberi kommunikációnak csak a verbális elemeit veszi át az e-kommunikáció, a fekete dobozba csupán a "tartalom", vagy inkább annak is csak a "jel" része kerül. Az emberi kommunikáció legalább 50%-át alkotó metakommunikáció elvész. Pedig ez az, amitől az információ teljes, ez az a redundancia, az a tartalék, ami a kommunikációs "hibák" felismerését, esetleges javítását lehetővé teszi. Ez az 50% az, amely azt a vonatkoztatási alapot képezi, amelytől a puszta "jel" valódi "jelentéssé" válik. Ez az a csoda, amelyre Gábor Dénes (1900-1979) gyermeki naivitással rácsodálkozott, mikor a holográfiát, a teljes kép rekonstruálhatóságát felfedezte. 1971. December 11-én a Nobel-díj átvételekor tartott előadásán ezt így adta elő: "A közönséges fényképen azonban a fázisok teljesen elvesznek, a fénykép csupán az intenzitásokat örökíti meg. Nem csoda, hogy elveszítjük a fázist, ha nincs mivel összehasonlítani!"

Turing tesztje és így a "természetes vagy mesterséges intelligencia?" kérdésfelvetése magában hordozza azt a rejtett feltételezést, hogy az emberi nyelv tisztán információelméleti, illetve formális logikai megfontolások alapján képes a "teljes információ" közvetítésére. Azonnal hiányérzetünk támad azonban, ha az információ fogalma helyett az ismeret fogalmát használjuk a közölt üzenettel kapcsolatban. Ekkor ugyanis az üzenet jelsorozat tulajdonságához, annak jelentés tartalmát is hozzárendeljük, amely csupán valamely vonatkoztatási rendszer (értelmező, vagy fogalom-rendszer) birtokában értelmezhető.

Az információ mennyiségi leírása statikus, melynek következtében a redundancia "felesleg", így a mesterséges rendszereknél a "racionális szervezés" igyekszik azt minimalizálni. Ugyanakkor a természetes kommunikációnak a redundancia elengedhetetlen része (pl. metakommunikáció!), hiszen éppen ez biztosítja azt a vonatkoztatási rendszert, amely az üzenetet jelentéssel tölti meg.
Kalmár László több területen korát jóval megelőzte (matematikai nyelvészet, algoritmus elmélet, kibernetikai kutatások ), így már az 1960-as években a kvalitatív információelmélet problémájával foglalkozott. Igyekezett felhívni a figyelmet az információelmélet továbbfejlesztésének szükségességére, s rámutatott, hogy a jelek, jelsorozatok alakjában továbbított információ (üzenet) mennyiségi vizsgálatán túllépve, az információ tartalmi-minőségi vonatkozásaival is törődni kell. Sajnos, amint erre már az előzőkben utaltunk, a kor nem kedvezett eme gondolatok széleskörű elterjedésének, de a XXI. századi információ alapú társadalom újra kikényszeríti e problémakör megoldását.

Ennek jegyében tesszük fel a következő kérdést: Lehet, hogy éppen a redundancia rejti a természetes és mesterséges intelligencia között megbújó titok kulcsát ? Eme kérdésre adott pozitív válaszunkkal mutatunk rá arra, hogy a titok kulcsa csupán egy olyan ajtót nyit ki, amely mögött újabb titok lappang. Az újabb titok a "valós vagy virtuális információ?" titka, amelynek megfejtéséhez már ez a kulcs kevés !

Az információelmélet igyekszik minden információval kapcsolatos fogalmat (jelenséget) számszerűsíteni, hogy azután a matematika eszközeivel egzakt tételeket, összefüggéseket fogalmazhasson meg. Így egy üzenet információmennyiségét (nem ismeret mennyiségét!), az üzenet váratlanságával jellemzi, amely tulajdonképpen egy valószínűségi típusú érték.

Mindennapjaink részévé váltak a képi információ sűrítés szimbólumai, a piktogrammok, valamint játékos formában a szöveg és képsűrítés keverékei a képrejtvények.

A redundancia csökkentésével tehát rövidíthetjük az üzenetek átlagos hosszát, de kérdés, hogy mit tudunk kezdeni az így "optimalizált" üzenettel? A válasz meglepő!

A mesterséges kommunikációs rendszerek szempontjából valódi előny, hogy a rövidebb üzenet gyorsabban átvihető és kisebb helyen tárolható. A kommunikáló felek szempontjából azonban éppen fordított a helyzet, mivel így teljesen védtelenné válnak mindenféle véletlen, illetve szándékos hibával, torzítással szemben.
Nulla redundanciára érzékletes példa a lottó húzás, ahol nem lehet közelítőleg eltalálni a főnyereményt, ellenben a beszédnyelvben megadhatunk egy szót közelítőleg, azaz hibásan, akkor is felismerjük (pl.: ha "borotva", helyett a "barotva" jelsorozat érkezik). Fel kell hívni a figyelmet a beszédnyelv kihangsúlyozására, mivel ugyanez például a számítástechnikában alkalmazott programozási nyelvekre nem igaz. Ott az utasítások, formulák úgynevezett szintaxisát pontosan be kell tartani ahhoz, hogy a gép "megértse".

Fontos, hogy az előzőkben vázolt információátviteli tulajdonságok, csupán a kommunikációnak a hírközlő csatornán (ez lehet írott, hang, kép átvitelére alkalmas technikai eszköz) átvitt, üzenet részére vonatkoznak.
Információelméleti eszközökkel az "értelmes", "érthető" fogalmak csak formálisan értelmezhetők, így a mesterséges kommunikációs rendszerről fel kell tételeznünk, hogy bizonyos mennyiségű "formális értelmetlenséget" produkál, ezáltal megkülönböztethető a természetes intelligenciával rendelkező, "értelmes" rendszerektől. Pontosan erre épül a Turing-teszt, amely szerint a nagyon jól utánzó gép, megkülönböztethetetlen a természetestől.
A Turing-teszt K kérdezője tehát azt lesi, hogy mikor vesz észre "gépszerű" hibát ("értelmetlenséget") valamelyik válaszban. A hiba fogalma azonban, mint az a fenti információelméleti gondolatmenetből kiderült, legalább olyan nehéz fogalom, mint a természetes vagy mesterséges intelligencia megkülönböztetése. Akkor vagy az eddigi eszközeink nem alkalmasak eme jelenségek megkülönböztetésére, vagy maga a kommunikációs rendszer bonyolultabb, mint eddig feltételeztük ?

Redundancia a kommunikációban

A XX.század utolsó harmada az információ tömegtermelésének kora, amely mint minden tömegjelenség, kezdte a "méregfogait" is kimutatni.
Az eltárolt temérdek információ dzsungelében egyre nehezebb lett az eligazodás, így szükségessé vált az optimalizálás, amely a kor szellemének és az elméleti, valamint technikai háttérnek megfelelően, a mennyiségi paraméterekre vonatkozott. Hogy lehet az információt minél kisebb helyre tömöríteni, ezáltal minél gyorsabban átjuttatni az információs csatornán és végül minél kisebb helyen tárolni ?
A hardver eszközök térfogategységre jutó kapacitása exponenciálisan nőtt, azaz egyre nagyobb mennyiségű információt képesek tárolni, egyre kisebb helyen (lásd a ma már közforgalomban kapható laptop (táska), palmtop (marok) számítógépeket), míg ugyanez a növekedés a "gépek" architektúrájában és a felhasználó szempontjából létfontosságú gép és ember közötti kommunikációt szolgáló szoftverben egyáltalán nem jött létre. A napjainkban tömegesen alkalmazott asztali, laptop, palmtop számítógépek alapvető hardver architektúrája még mindig megegyezik a Neumann János által leírtakkal, sőt amint az a jelen dolgozat történeti bevezetőjéből kiderül, tulajdonképpen C.Babbage XIX. századi elképzeléseivel. Így a jelen globális kommunikációs rendszereiben, a felhasználó ember teljesen magára maradt, szuper teljesítményű, de "intelligenciáját" tekintve XIX. századi digitális eszközeivel.
Napjainkra előállt tehát az a paradox helyzet, hogy a redundancia egyszerre vált "ellenséggé" és mint a fentiekben rávilágítottunk, az információ-biztonságot támogató eszközzé. A racionális törekvések, a gazdasági, üzleti szempontok diktálta fogyasztói társadalomban mégis az előbbi irányba húztak, sőt a digitális technika térhódításával egyre erőteljesebb a redundancia "ellenség-képe".
A digitális technikával, ami napjaink és várhatóan a közeljövő uralkodó technikája, óriási számhalmazokká képezzük le egész környezetünket, az e-kommunikációban még gondolatainkat is, így valójában egy digitális világot építünk fel, amely bizonyos értelemben újraéleszti az ókori számmisztikát.

A digitális világ, azaz napjaink számmisztikája ettől lényegesen különbözik, mivel a digitalizált információ számdömpingjében éppen a számok "számtulajdonságait" hántjuk le és egyszerű "számkódok"-ként használjuk fel őket. A digitális számhalmazok így tulajdonképpen jelhalmazokká, kódhalmazokká válnak, amelyek semmiben sem különböznek a nem numerikus jelkészletektől (szimbólumoktól, ABC-ktől).

A globális e-kommunikáció "fekete dobozában" tehát egyre nagyobb mennyiségű, mesterségesen elhelyezett, "természetes értelmetlenség" található! A globális kommunikáció "fekete doboza" pillanatnyilag úgy tekinthető, mint a digitális világ Bábel tornya, amelyben az emberi nyelvek különböző számkódokká keveredtek össze, melyeknek megértéséhez, azaz ahhoz, hogy az információk jel alakját ismeretté konvertáljuk, már egyáltalán nem elegendő csupán a nyelv ismerete.

Ebben a "természetes rendetlenségben" kell rendet teremtenünk, ha azt akarjuk, hogy "fekete dobozunk" hasonlítson a természetes intelligenciához. Ennek módja azonban csak a TALÁLD MEG filozófián át vezet. Azaz éppen a racionális, gazdasági, üzleti megfontolásokból feleslegesnek tartott redundancia segítségével kell jelentést találni az információ (jel) tömegnek, majd (ha még mindig nem értelmes számunkra az üzenet), a TALÁLD KI filozófia alkalmazásával jutunk a számunkra is értelmezhető, azaz a természetes intelligencia számára befogadható ismerethez.

Kérdés tehát, hogy a TALÁLD MEG filozófia kivitelezésére alkalmas-e az emberi (vagy egyéb) nyelv? Ez a sarkalatos kérdés a "valódi vagy virtuális információ?" megválaszolásával ekvivalens !

Világos ugyanakkor, hogy ez nem azonos Turing kérdésével ("természetes vagy mesterséges intelligencia?"), így a Turing-teszt sem lehet alkalmas e kérdés megválaszolására.
Sőt az e-rendszerekben magának a Turing-tesztnek az alkalmazhatóságát is bizonytalanná teszi!

Márpedig az információs társadalomban a Turing-teszt napi gyakorlattá válik és a globális kommunikációs rendszerek fekete dobozában, a két stratégia bábeli keveréke áll elő. Felmerül tehát ílymódon az információk azonosíthatóságának, valódiságának, azaz az információ-biztonság garantálhatóságának problémája, vagyis a "valós vagy virtuális információ?" alapvető jelentőségű kérdése, amelyre mindenképpen egy információ-alapú társadalomnak válaszolnia kell!

A Turing-teszt e-gyakorlata

A mesterséges intelligencia éppen az emberi racionalitás miatt, csak a jó, pozitív, "hasznos" emberi, illetve élő tulajdonságokat igyekszik modellezni (lemásolni). Hiszen az emberiségnek eme tulajdonságokkal lehet általában a teljesítményét maximalizálni. Attól jó egy gép, ha "fáradhatatlan", kiszámíthatóan, biztonságosan működik. Például az emberi fáradást, betegségeket, vagy más tökéletlenséget senkinek nem áll érdekében lemásolni, modellezni, gépi formában reprodukálni. Éppen ezért a mesterséges (gépi) rendszerek tesztelésére olyan pozitív tulajdonságok, paraméterek meglétét tételezzük fel, amelyekkel általában az ember (vagy az élő organizmus) rendelkezik. Ilyen tulajdonságok például az organizmusban keletkező hibák kijavítása, az organizmus reprodukáló, vagy alkalmazkodó képessége, stb.

A.Turing is arról beszél, hogy az ezredfordulón, amit éppen jelenként élünk meg, "a gépek elég jól fogják játszani az utánzó játékot" és ezalatt azt érti, hogy "elég intelligensen lehet egy géppel kommunikálni". Így tehát, ha Kempelen Farkas módjára egy gépben elég ügyesen emberi intelligenciát helyezünk el (éppen ez történik az e-kommunikációs rendszerek fekete dobozában!), azaz "virtuális gép-embert" készítünk, akkor a saját teljesítményközpontúságunk akadályoz meg abban, hogy az utánzó játékkal, mint tesztelési lehetőséggel célhoz érjünk, ha a gépet és az embert akarjuk megkülönböztetni egymástól.
Turing fent idézett példája tükrözi azt a humánus személyiséget, aki nem tud a valódi, a szó szoros értelmében vett gép - ember viszonyon túllépni, akinek látnoki képzelőereje sem volt képes a tiszta játékszabályokon túlra látni. Ezért csupa tényszerű, vagy konkrét emberi cselekvésre irányuló kérdés (kérés) képezi a képzeletbeli párbeszédeit. Kritikája, probléma listája is mélyen emberi! A valóságos jelenségvilágból nem tud (valószínűleg nem is akar!) kiszakadni . Ezért talán joggal hitte azt, hogy a tesztje valóban el tudja dönteni a "tudnak-e a gépek gondolkodni?", avagy a "természetes vagy mesterséges intelligencia?" kérdését.
Turing gondolatkísérlete, mára a globális e-kommunikációs rendszerek mindennapi gyakorlata, amely az alábbihoz hasonló párbeszédek millióit hozza létre a nap 24 órájában (az alábbi párbeszéd-töredék csak modellezi a valódi gyakorlatot).

V: 8-kor a CSA-ban mindenki ott lesz. Gyere Te is!
K: Mi a téma?
V: QKAC, IDTLEN és még sok fontos téma, ami mindenkit érdekel.
K: Szó lesz a PARA-MÉTER-ről?
V: Biztos, mert sok mindenről szó lesz.
K: ….

Mint azt példánk is jól szemlélteti, az általános alany stílusában (megszólítás, személyes azonosítás és azonosíthatóság nélkül) megfogalmazott célirányos, "hatékonyságra" törekvő kommunikációnál, amely az e-kommunikációban tulajdonképpen információtovábbítássá zsugorodik és szinte "felesleggé válik" a metakommunikáció. Azaz a fentiek alapján éppen az üzenet "jelentéstartalmának vonatkoztatási rendszere" válik az "idő pénz" szemlélet martalékává. Igen szemléletesen mutatják ezt a tömörítési törekvést, az e-kommunikációban gyakorta használt (csupán szűk kommunikációs csoportok számára érthető) rövidítések, vagy például a tájékoztatásban, "reklám-kommunikációban" használt piktogramok, stb.

A jelen információs társadalmában az egyedek "észrevétlenül", mint digitálisan tárolt adatsorok képződnek le a "fekete doboz(ok)ba", a "digitális Bábel tornyokba". Ezek az adatsorok egyre több és részletesebb adatot tartalmaznak, a tárolók részéről azzal a racionális igyekezettel, hogy minimális legyen a tárolt információk redundanciája. Ugyanakkor alapvető kérdés, hogy "ki a tároló (tárolt információk) tulajdonosa ?", aki(k)nek módjában lehet a "fekete dobozba" rejtett temérdek titok (információ) ismeretté konvertálása, majd jó vagy rossz célokra való felhasználása.

A racionalitás, azaz az általános redundancia-minimalizálásra törekvés során megszületik az e-társadalom, amelyben e-rétegződés, e-mobilitás, e-kultúra és így egyáltalán e-gyetlen rendező elv szerepel: ez az "e-gy értékű társadalom".
Az e-gy társadalomban az emberek e-mberekké válnak, azaz olyan digitális információ- halmazokká, amelyek (és nem akik!) már a hatalom (az információs fegyver birtokosai) számára nem különböznek bármely virtuálisan előálló információ-halmaztól, így tetszés szerint manipulálhatók.

Szomorú, hogy akárcsak Orwell 50 évvel ezelőtti "utópiája" (lásd G.A.Orwell: 1984 című regényét), mely szerint "Az embernek annak tudatában kellett élnie, hogy lehallgattak minden hangot, amit kiadott, s a sötétséget leszámítva minden mozdulatát megfigyelték.", amely a valóban elektronikus és globális ECHELON műholdas lehallgató rendszer képében [DÉNT 01/2] mára megvalósult tény, ugyanígy sajnos az információs fegyver elképzelése sem helyezhető az utópiák távoli világába, hiszen a mai reklám (főleg az e-reklám, e-média, e-sajtó) és PR eszközök tartalmazzák már eme manipulációs csírákat.


Lehet, hogy a globális információs rendszerekkel, az e-gy társadalom alapkövét helyezzük el?
Lehet, hogy a XXI. század információs társadalmának "csodafegyvere" a valós és virtuális világot megkülönböztethetetlenné tevő információs fegyver lesz ?
Lehet, hogy ez a fegyver az abszolút gazdasági racionalitás doktrínáját megvalósítandó, már semmiféle látványos pusztítást nem végez, csupán a valódi emberek tömeges, virtuális manipulációját valósítja meg, a globális és helyi hatalom kénye-kedve szerint ?!
Lehet, hogy ezekre és még sok hasonló kérdésre kellene egy valódi EMBER központú, valóban TUDÁSALAPÚ társadalomnak igazi válaszokat keresni, mielőtt felállítja az "információs társadalom = e-társadalom" egyenletet ?

A lehetőség ma még, az utolsó pillanatban adott. Ehhez azonban fel kell ismernünk a már létező és a globális e-gy társadalmakban rohamosan terjedő "virtuális agárverseny effektus"-t, amely így foglalható össze röviden: "Érjük utol a nemlétező nyulat egy virtuális agárversenyen !"

Zárszó helyett

Az 1999-es év egyik szenzációja volt, hogy a digitálisan létrehozott "filmszínésznő", Lara Croft világsikere után, egy kaliforniai filmcég (Virtual Celebrity) bejelentette az első digitális klón megszületését. Ez a digitális klónozás Marlene Dietrich arcát keltette életre és így a már régen elhunyt sztár, egy újonnan készült 30 másodperces filmben szerepelhetett a maga "virtuális valóságában"!
Digitálisan létrehozott "virtuális barátaink" napról napra gyarapodnak, ezek sorából különös jelentőségénél fogva ki kell emelni AnaNovát, az első televíziós bemondónőt, "aki" majdnem tökéletes angol kiejtéssel, búgó hangján szól a képernyőkön keresztül rátapadó (főleg férfi) nézőkhöz.
E "valós vagy virtuális információ?" problematikáját elemző cikk végére, mint felkiáltó mondat végére, tette ki az élő felkiáltójelet maga az élet (MTI, 2002. április):
"Az USA Legfelsőbb Bírósága engedélyezte a gyermek pornó filmeket, amennyiben nem élő, hanem csak virtuális szereplők szerepelnek benne."



Irodalomjegyzék

[DÉNT 78] T. Dénes: Graph theoretical approach to structural
representation of systems
Proceedings of the Fourth International Conf. for Pattern
Recognition, Kyoto, Japan 1978.

[DÉNT 00/1] Dénes Tamás: REJTJELFEJTÉS
Trükkök, módszerek, megoldások
Magyar Távközlés, XI.évf. 4.szám, 2000. április

[DÉNT 00/2] Dénes Tamás: DIGITÁLIS UJJLENYOMAT
A dokumentumvédelem új korszaka
Magyar Távközlés, XI.évf. 5.szám, 2000. május

[DÉNT 01/1] Dénest Tamás: Biztonságos Információ (s) Társadalom
INFO TÁRSADALOMTUDOMÁNY, 2001/53.

[DÉNT 01/2] Dénes Tamás: ECHELON az e-társadalom információpajzsa ?
Híradástechnika, 2001/6

[DÉNT 01/3] Dénes Tamás: SZTEGONOGRÁFIA
Rejtett információk rejtjelzés nélkül
Híradástechnika, 2001/8.

[DÉNT 02/1] Dénes Tamás: TITOK TAN avagy Kódtörő ABC
KRIptográfia MIndenkinek
Bagolyvár Kiadó, Budapest, 2002.

[DÉNT 02/2] Dénes Tamás: INFOSANCE, a jövő INFOrmációs renaisSANCE
társadalmának esélye
eVilág, I.évf. 4.szám, 2002.július

[FEFISH 87] U.Feige,A.Fiat,A.Shamir: Zero-knowledge proofs of identity
in: Proceedings of the 19th ACM Symposium
on the Theory of Computing, New York,
ACM Press,1987.

[FUTÓ 99] Futó Iván (ed.): Mesterséges intelligencia
Aula Kiadó, Budapest, 1999.

[GÁBOR 76] Gábor Dénes: Válogatott tanulmányok
Gondolat, Budapest, 1976.

[HODG 83] A. Hodges: Alan Turing: The Enigma.
Burner Books Ltd., London, 1983.

[KALM 86] Kalmár László: Integrállevél
Gondolat, Budapest, 1986.

[NEMES 62] Nemes Tihamér: Kibernetikai gépek
Akadémiai Kiadó, Budapest, 1962.

[NEME 91] Nemetz Tibor, Vajda István: Bevezetés az algoritmikus adatvédelembe.
Akadémiai Kiadó 1991.

[NEUM 72] Neumann János: A számológép és az agy
Gondolat Könyvkiadó, Budapest, 1972.

[NEWT 97] David E.Newton: Encyclopedia of cryptology
ABC-CLIO, Santa Barbara, California, Denver, Colorado,
Oxford, England 1997.

[PETSO 88] Ivars Peterson: Computing a Bit of Security: Zero-knowledge proofs in
Data Encryption
Science News, 16 January 1988.

[SHANN 48] C.E.Shannon: The Mathematical Theory of Communication
Bell System Technical Journal, 1948. July and October

[SHANN 49] C.E.Shannon: Communication Theory of Secrecy Systems.
Bell System Technical Journal 28 (1949) 656-715.

[SHANN 51] C.E.Shannon: Prediction and entropy of printed English
Bell System Technical Journal, 1951. January

[SHANN 62] Claude E.Shannon and Warren Weaver: The Mathematical Theory of
Communication
Urban: University of Illionis Press, 1962.

[SINGH 00] Simon Singh: The science of secrecy
(The secret history of codes and codebreaking)
London, 2000.

[STEW 96] Ian Stewart: Proof of Purchase on the Internet: Zero-knowledge Protocols
Scientific American, February 1996., 124-125

[TARJ 58] Tarján Rezső: Gondolkodó gépek
Bibliotheca Kiadó, Budapest, 1958

[TURING 50] A.M. Turing: Computing Machinery and Intelligence
Mind, 9(1950), 433-460

[WAYN 87] Peter Wayner: Zero-knowledge proofs: Data Encryption
Byte, October 1987, 149-152





------------------------------------------------------------------------------------------------------------------------

Ironisztika


A jövőkép lehetetlensége, avagy lehet-e Auschwitz és Gulág után jövőt tervezni?


Heller Ágnesnek


A tudástársadalom-jövőkép csak szavakkal nem, vagy alig jeleníthető meg, mert például a tudástársadalmi (vagy bármilyen más pozitív) jövővíziót megkérdőjelező, tagadó európai érzület szavakkal nem enyhíthető?

A huszadik század tapasztalata ugyanis kétségessé tesz minden jövőtervet. Nemcsak az a kérdés, hogy Adorno szerint a Holokauszt után nem lehet verset írni, hanem az is, hogy Auschwitz és Gulág után szinte lehetetlen minden jövővízió. Ha a 19. és 20. századi utópiák totalitárius tömeggyilkosságokhoz és tömegmanipulációk vezettek, akkor mi az esély és garancia arra, hogy olyan világ is elképzelhető és létrehozható, amely örökre kizár minden testi-lelki gyilkosságot s megaláztatást, érintsen ez akár egyetlen embert vagy egy egész népet?

Szavakba foglalva egyáltalán kigondolható-e ön- és közösség pusztítás nélküli jövővilág?

Azonnali és könnyű válasz helyett inkább ismét kérdezek: tehetünk-e mást? Szavakkal a tapasztalat, jövőképpel a múltkép ellen? Nincs is más univerzális és személyes dolgunk, mint hogy nem félve az utópiák eddigi - nem okvetlenül a jövőképekből fakadó - gyalázatától, újrateremtsük az emberi társadalom jövőhitét és kitaláljuk az új jövőtervét?

Megérezhető, elgondolható, hihető, virtuálisan megélhető olyan világ, amelyben semmi olyan vagy ahhoz hasonló nem történhet, mint aminek Auschwitz és Gulág a példája. Mindegy, hogy aktuálisan minek nevezzük, tudástársadalomnak, tudattársadalomnak vagy egységtársadalomnak.

K.V.


























FÓRUM

ÁRUHÁZ

FORDÍTÁS

LOVAGLÁS

KUTYA

MAGAZIN

INGATLAN

BOR

MEZŐGAZDASÁG
TERMŐFÖLD GALÉRIA
MODELL  GALÉRIA FOTO ÁSVÁNYVÍZ MÉHÉSZET VADÁSZAT
TÁVMUNKA
ÚJSÁGOK