A Turing-teszt az e-társadalom napi gyakorlata
(e-világi gondolatok/1)
A.M.Turing születésének 90. évfordulójára
ajánlva
Alan Mathison Turing 1950-ben megjelent [TURING
50] dolgozatát ezzel a mondattal kezdte:
"Szeretném, ha elgondolkoznának azon,
hogy tudnak-e a gépek gondolkodni ?"
Ez a nyilvánvalóan provokatív kérdés abban
az időben nagy meghökkenést keltett, hiszen
az akkor még újszülött korban lévő digitális
számítógépek megjelenéséig a gépeket csaknem
kizárólag mechanikus feladatok elvégzésére
tervezték és alkalmazták, így nem volt oka
az intellektuális képességek feltételezésének.
Ebben a dolgozatomban szeretném megmutatni,
hogy A.Turing messze korát megelőző gondolkodása
és tudományos fantáziája sem volt elegendő
annak a technika-fejlődési trendnek az elképzeléséhez,
amely az 1950-es évektől az ezredforduló
infokommunikációs társadalmához vezetett.
Azt sem sejthette, hogy saját becsléseit,
melyeket a 2000. évre szánt, alaposan felül
kellene bírálnia, mivel a fejlődés ütemét
a mesterségesen felgyorsult világ messze
túlteljesítette. Így mára, az általa megalkotott
Turing-teszt már nem csupán elmeélesítő gondolatkísérlet,
hanem a globális e-kommunikációs rendszerek
napi gyakorlata. Az 50 évvel ezelőtt meghökkenést
keltett kérdést, a mai és várható jövőbeli
viszonyoknak megfelelően új tartalommal kell
feltenni: "Szeretném, ha elgondolkodnának
azon, hogy vajon eldönthető-e, hogy valós
vagy virtuális információk tömege gyűlik
a globális e-kommunikációs rendszerek fekete
dobozában?"
A meghökkenést azonban annak a felelősségérzetnek
kell felváltania, amit az a rádöbbenés indukál,
hogy az erre a kérdésre adott válasz (vagy
éppen e kérdés megválaszolhatatlansága!),
annak a jövendőbeli társadalmi formának a
lényegét tárja fel, amelynek történelmi léptékkel
mérve, első másodperceit éljük: ez az információsnak
nevezett, e-kommunikációs társadalom.
Gondolatok a Turing-teszt előtt
Kivételesen most nem engedjük elkalandozni
gondolatainkat több ezer éves távlatokba,
a "már az ókori görögök is ismerték"
szokásos fordulatot használva, bár valóban
az emberiség a kezdetektől alkalmazott a
számolás megkönnyítésére különböző eszközöket
(ilyenek voltak a legrégebbi ismert eszközök,
a rováspálcák, majd az abakusz).
Jelen témánk szempontjából azonban csupán
vázlatosan teszünk említést azokról az eszközökről,
amelyek már a mai értelemben is számoló-gépeknek
nevezhetők. Ehhez elegendő a XVII. századig
visszapergetni a naptárt, amikor 1642-ben
Blaise Pascal (1623-1662) megszerkesztette
fogaskerekes összeadógépét, az arithmométert.
Ennek tökéletesített formája volt 1671-1673-ban
Gottfried Wilhelm Leibniz (1646-1716) összeadó
és szorzógépe, amellyel mind a négy alapműveletet
el lehetett végezni, sőt Leibniz már ekkor
javasolta a számológépeknél a 2-es számrendszer
használatát .
Ezekkel a fogaskerekes eszközökkel egyre
több és egyre nagyobb számokon végzett műveleteket
lehetett a fejben, vagy papíron történő számoláshoz
képest igen gyorsan elvégezni, ezért a XVIII.
században, főleg Franciaországban már sorozatban
gyártottak ilyen készülékeket.
Nagy lépést jelentett a változtatható fogazású,
majd a lyukkártyás vezérlésű gépek bevezetése.
Az első ilyen gépek Joseph Marie Jacquard
(1752-1834) nevéhez fűződnek, aki 1810-ben
elkészítette első lyukkártya vezérlésű szövőgépét,
amely már lehetővé tette a selyemszövetek
különböző mintázatokkal történő automatikus
gyártását. A lyukkártyás vezérlés ötlete
és technikája a szórakoztató iparban is megjelent
például a XVIII. századi zenegépekben.
A számítástechnika és így a "gondolkodó
gépek" felé vezető út szempontjából
igazi áttörést Charles Babbage (1792-1871)
angol matematikus tevékenysége jelentett,
akinek először jutott eszébe, hogy a lyukkártya
alkalmas lehet az elemeire bontott számítási
eljárások gépbe táplálására is. A mintegy
tíz évi munkával készített első gépe, a Difference
Engine képes volt nagy számtáblázatok automatikus
elkészítésére, ami méltán váltotta ki a korabeli
csillagászok elismerését, melynek kifejezésére
a csillagászok egyesülete aranyéremmel tüntette
ki. Babbage azonban gépét továbbfejlesztette
és grandiózus tervekkel foglalkozott, melynek
eredménye, új számítógépe, az Analytical
Engine sohasem készült el, mivel az 1000
tengely és az 50 helyiértékes számokhoz tartozó
fogaskerékrendszer technikai kivitelezése
olyan technikai precizitást igényelt, amelyre
az akkori ipar képtelen volt. Így Babbage
gépe méltánytalanul feledésbe merült, pedig
az az automatizált számítógépek ősének tekithető.
Babbage ugyanis felismerte azt, hogy szükséges
a számítási folyamat közben keletkező részeredmények
tárolása is. Ugyanakkor az Analytical Engine
valósította volna meg először azt az elvet,
hogy a gép előre meghatározott (és lyukkártyák
segítségével változtatható!) algoritmus szerint
végezze a számításokat, vagyis mai fogalmaink
szerint, ez lett volna az első programozható
"számítógép". Babbage gépe tehát
szerkezeti elemeit (architektúráját) tekintve
(aritmetikai egység, operatív tár, vezérlő
egység), pontosan megfelelt a napjainkban
is használt, úgynevezett Neumann elvű számítógépeknek.
Mindez szinte pontosan 100 évvel Neumann
János előtt!
A Babbage-nél még mechanikus elemekből felépülő
lyukkártyás rendszert csupán az elektronika
felhasználásával modernizálta a XIX. század
végén, az Amerikai Statisztikai Hivatal igazgatója
Herman Hollerith (1860-1929), aki 1889-ben
a népszámlálás adatainak feldolgozására egy
rendezőgépet dolgozott ki. Minden állampolgárhoz
egy adatsort (számsort) rendelt, amely számokat
egy 80 oszlopból és 10 sorból álló kártyán
lyukasztással rögzítettek. A rendezőgép olyan
elektromágneses szerkezet volt, amely a kártyák
oszlopainak megfelelő távolságokban pontosan
80 letapogató fémtűvel rendelkezett, így
amikor a görgősoron egy kártya a tűk alá
került, akkor azok a tűk, amelyek a kártyán
lyukat "találtak", zárták az elektromágnes
áramkörét, amely azon a padon, amelyen a
kártya elhaladt, kinyitotta a lyukasztásnak
megfelelő ajtót, amelyen át a kártya a neki
megfelelő dobozba esett .
Az elektromosság alkalmazása felgyorsította
a számológépek fejlődését és a XX. század
elején mind tökéletesebb elektromechanikus
gépeket készítettek. Az Amerikai Egyesült
Államokban Howard Hathavay Aiken elkészítette
a MARK-I és MARK-II elektromechanikus analitikus
számítógépeket, amelyekben egy összeadáshoz
0,3-0,5 sec, egy szorzáshoz 5-6 sec, míg
egy osztáshoz 15 secundum kellett.
Norbert Wiener (1894-1964) 1940-ben megfogalmazta
a korszerű számítógépek "5-parancsolatát":
1. A számítógép aritmetikai egysége numerikus
legyen.
2. A mechanikus és elektromos kapcsolókat
fel kell váltani elektroncsövekkel.
3. Az aritmetikai műveletek elvégzésére a
2-es számrendszert kell alkalmazni.
4. A műveletsort a gép emberi beavatkozás
nélkül, automatikusan végezze úgy, hogy a
közbenső logikai döntéseket is be kell táplálni.
(Mai szóhasználattal, ez a program.)
5. Legyen lehetőség az adatok tárolására,
könnyű előhívására és törlésére.
A II. világháború alatt rohamosan fejlődő
hadiipar sorra vetette fel a rengeteg számolást
igénylő feladatokat (például a nagy hatótávolságú
lövedékek lőelemtáblázatai, lövedékek gyors
röppályaszámítása, az atombomba kísérletek
számításairól nem is beszélve), amelyek sürgették
a "számítógépek 5-parancsolatának"
gyakorlati megvalósítását.
Így készült el Neumann János és Herman H.
Goldstine tervei alapján 1943-1946 között
az első elektronikus számítógép, az ENIAC
(Electronic Numerical Integrator And Calculator),
a philadelphiai Pennsylvania Egyetemen. Az
ENIAC egy elektronikus kolosszus volt, amely
30 tonnát nyomott, egy több mint 30 méter
hosszú terem kellett az elhelyezéséhez és
a 18000 elektroncső 100-150 kWó energiát
fogyasztott (ezért a hűtése igen nagy problémát
jelentett).
Az ENIAC még nem felelt meg egészen a "számítógépek
5-parancsolatának", hiszen aritmetikája
10-es számrendszerben működött. Számítási
teljesítménye azonban a MARK-I és MARK-II
gépekéhez viszonyítva lenyűgöző volt, az
összeadást és kivonást 10 tizedes pontossággal
0.0002, a szorzást 0.0023 secundum alatt
végezte el. Memóriájában mindössze húsz darab
tízjegyű számot lehetett tárolni, így program
tárolására nem volt alkalmas, a programozását
egy huzalos dugaszolótábla tette lehetővé.
Ezen adatok ismeretében még nagyobb tisztelettel
kell adóznunk C. Babbage száz évvel korábbi
teljesítménye előtt és egyáltalán nem csodálkozhatunk
azon, hogy annak megvalósítása akkoriban
kudarcba fulladt.
Neumann János és H.H. Goldstine az 1940-es
évek elejétől foglalkoztak a számítógépek
elméleti és gyakorlati problémáival. Kutatásaik
eredményét egy bizalmas jelentésben foglalták
össze 1948-ban, amely először tartalmazta
az univerzális, belső programvezérlésű, elektronikus,
digitális számítógép tervét. Ebben egyértelmű
érvekkel alátámasztva állást foglaltak a
már Leibniz által ajánlott bináris számrendszer
mellett, valamint megoldották a programtárolás
módját is. Így lehetővé vált az adatok és
részeredmények tárolásán kívül, a végrehajtandó
utasítások tárolása is a számítógép memóriájának
egy erre fenntartott részében.
Az ENIAC tapasztalatait felhasználva, már
ezen elveket valósította meg, az 1948-1949-re
elkészült EDVAC (Electronic Variable Automatic
Computer), amelyet tervezője Neumann János
tiszteletére "Johnnyac"-nak is
hívtak .
Érdemes felfigyelni ez utóbbi elnevezések
közötti (látszólag jelentéktelen) eltérésre,
amely már tükrözi azt a jelentős különbséget,
amely a mind nagyobb teljesítményű, a szó
szoros értelmében vett számoló gépek (minél
nagyobb számokkal, minél gyorsabban végzett
műveletek) és a változtatható és tárolt programokkal
programozható számítógépek között van.
Ez az a pont, ahol kezd versenytárssá válni
a gép és az ember, ahol már a nagy mennyiségi
teljesítményekre képes automatikusan működő,
de alapjában véve egyszerű gépek helyére
lépnek a programvezérelt automaták. Az automaták
már az 1800-as években Kempelen Farkas zseniálisan
szélhámos "sakkozó automatája"
idején is nagy csodálattal töltötték el az
embereket. Később a logikai gépek, majd az
emberi funkciókat modellező automaták, már
elkerülhetetlenné tették a programnak, mint
matematikai fogalomnak a definiálását.
Éppen Alan Mathison Turing (1912-1954) volt
az, aki az 1930-as években elsőként adta
meg a program és a programozható számítógép
matematikai modelljét, a róla elnevezett
Turing-gép definícióját. Ez a gép tulajdonképpen
egy absztrakt automata, amelyre teljesül
az a meghökkentő tétel, melyet Alonzo Church
amerikai matematikus 1936-ban állított fel
és amely szerint minden programhoz található
egy azzal ekvivalens Turing-gép és fordítva,
minden Turing-gép egy programot (algoritmust)
valósít meg, azaz a Turing-gép tökéletes
modellje a program fogalomnak. A Turing-gép,
mint minden igazán zseniális elképzelés,
könnyen leírható: Képzeljünk el egy olyan
automatát, amely véges sok szimbólumot (jelet)
képes feldolgozni úgy, hogy egy adott időpillanatban
egyetlen szimbólumot képes leolvasni, vagy
felírni egy elvileg végtelen szalagra. A
feldolgozást egy speciális jel, a STOP jel
feldolgozásakor fejezi be.
Ebben az absztrakt definícióban valóban benne
van a jelek hosszabb jelsorozatokká való
összeláncolásának és így tetszőleges bonyolultságú
utasítások létrehozásának és tárolásának,
a végrehajtás közben keletkezett jelek (adatok)
tárolásának lehetősége, vagyis mindazon funkciók
elméleti lehetősége, amelyeket egy évtizeddel
később, Norbert Wiener a korszerű számítógépek
"5-parancsolata"-ban foglalt össze.
A programok, az automaták, a számítógépek
számtalan elméleti kérdést vetettek fel,
amelyek megválaszolására részben a matematikai
logika, az absztrakt algebra és más matematikai
területek segítségével kerestek válaszokat,
részben egészen új tudományterületek születtek,
mint például az automata elmélet, a kibernetika,
a számítógép tudomány, vagy az információ
elmélet.
Turing-teszt
A programozható gépekkel kapcsolatban, szintén
a XX. század 30-as éveiben vetődött fel a
kérdés, hogy létezik-e (létezhet-e) olyan
programozási feladat, amely nem oldható meg,
azaz a Church-tézis szerint, létezik-e olyan
programozási feladat, amelyhez nem található
Turing-gép ?
Nos, 1937-ben A.M. Turing bebizonyította,
hogy a válasz "igen", mivel azok
és csak azok az algoritmusok programozhatók,
melyekhez úgynevezett rekurzív függvények
tartoznak. A matematikának azt a területét,
amely eme kérdések egzakt tárgyalását tűzte
ki céljául, kiszámíthatóság elméletnek, algoritmus
elméletnek, illetve Turing előbbi tétele
szerint a rekurzív függvények elméletének
nevezzük. Ezek az elméleti területek leegyszerüsítve
a következő kérdéssel foglalkoznak:
Melyek azok a számítások, amiket a számítógép
el tud végezni, ha minden gyakorlati jellegű
korláttól eltekintünk (mint például a rendelkezésre
álló idő és tárkapacitás) ?
A.M. Turing tehát kereste saját konstrukciójának
a korlátait és egyben a mesterséges intelligencia
kutatások előfutárának is tekinthető, mivel
Ő vetette fel elsőként azt a kérdést, hogy
mit is jelent a "gépi intelligencia"
?
Az első megválaszolásra váró kérdés persze
az, hogy létezik-e ilyen, hiszen a máig létező
többségi felfogás szerint intelligenciával
csupán az ember rendelkezik, ezért a "gépi
intelligencia" szóösszetétel értelmetlen.
Turing azt is jól látta, hogy az intelligencia
és gondolkodás fogalmak egymástól elválaszthatatlanok,
ezért fogalmazta meg 1950-ben megjelent,
klasszikussá vált cikkében, a dolgozatom
elején idézett, egyetlen mondatba sürített
kérdését: "… tudnak-e a gépek gondolkodni
?"
Ezzel a kérdéssel és az ezt követő gondolataival
indította útjára, a napjainkban egyre aktuálisabb
mesterséges intelligencia kutatást. Turing
szerint a "gondolkodni" szó inkább
érzelmi kérdéssé teszi ezt az egész kérdéskört,
ezért el is veti, mint túlságosan bizonytalan
(szubjektív) fogalmat. Ugyanakkor az 1950-es
években sokan úgy gondolták, hogy Kurt Gödel
(1906-1978) nemteljességi tétele a mesterséges
intelligencia lehetetlenségét is bizonyítja:
Mivel a mesterséges intelligencia mindig
"egy program", azaz egy Turing-gép
(Church-tézis). Az ebben a gépben tárolt
axiómarendszer meghatároz egy "nyelvet",
amely nyelven megfogalmazható olyan kérdés,
amelyre ebben az axiómarendszerben nem vezethető
le igen-nem jellegű válasz (Gödel-tétel).
Tehát e mesterséges intelligencia számára
érthető nyelven, megfogalmazható olyan kérdés,
amelyre nem tud sem igennel, sem nemmel válaszolni
!
Bár ez az érvelés több sebből vérzik, témánk
szempontjából csupán egyet emelek ki ezek
közül: Ha a mesterséges intelligenciát, mint
az emberi intelligenciát utánzó konstrukciót
fogjuk fel, akkor ennek megvalósíthatatlanságát
nem bizonyítja az az érv, hogy bizonyos kérdésekre
nem tud felelni, hiszen ez az emberi gondolkodásnak
is jellemzője.
A rekurzív függvények elméletének, a matematikai
nyelvészetnek jelentős alakja, a magyarországi
kibernetikai iskola megalapítója, Kalmár
László (1905 - 1976) az 1948-as amszterdami
Filozófiai kongresszuson tartott előadásában
bebizonyította, hogy a Church-tétel a Gödel-tételből
levezethető, így Church tétele nem bizonyíthatja
abszolút eldönthetetlen probléma létezését.
Kalmár László hangsúlyozta, hogy ezeket a
tételeket (Gödel, Church) szabatosan úgy
kellene megfogalmazni, hogy a kérdéses problémasereg
általános rekurzív eljárással nem oldható
meg, nem pedig abszolút megoldhatatlanságról
beszélni (lásd [KALM 86]).
Turingot az ellenvetések és főleg a "gépi
intelligencia" fogalmának bizonytalansága
csak inspirálta egy új megközelítés felvetésére.
Ennek lényege, hogy e szubjektív és ezáltal
tudományosan megfoghatatlan fogalmak helyett,
egy olyan módszert kell konstruálni, amelyet
jól definiált technikai fogalmakkal lehet
leírni. Javaslata szerint ez az általa "utánzási
játéknak" nevezett módszer, melyet manapság
Turing-teszt, vagy Turing-próba néven ismerünk.
A Turing-teszt lényege: Képzeljük el, hogy
egy C számítógép és egy E ember két külön
helyiségben van elkülönítve és mindketten
elektronikus kapcsolatban vannak egy harmadik
helyiségben levő K személlyel, aki elektronikus
úton kérdéseket tehet fel mindkettejüknek.
K-nak az a célja, hogy a kérdéseire érkező
válaszokból meg tudja különböztetni, hogy
mely válasz származik C-től és melyik E-től.
A teszt egyik óriási előnye, hogy az intelligenciáról,
gondolkodásról való elmeélesítő gondolatkísérletek
síkjáról, gyakorlatban kivitelezhető és a
probléma lényegét megragadó eszközt kaptunk
a kezünkbe. Hiszen most már az eredeti kérdés
helyett azzal a jól kezelhető kérdéssel állunk
szemben, hogy "van-e olyan gép, amely
ezt a játékot jól tudja játszani?"
Az eredeti Turing probléma valóban a gépi
és emberi intelligencia megkülönböztetése
volt. A mesterséges intelligencia kutatások
célkitűzése tehát, a gépek alkalmassá tétele
arra, hogy az embert minél pontosabban tudják
utánozni.
Turing eme korszakos cikkében kifejezte meggyőződését,
hogy a XX. század végére a gépek már elég
jól fogják játszani ezt a játékot ahhoz,
hogy egy átlagos kérdezőnek nem lesz 70%-nál
több esélye az azonosításra 5 percnyi kérdezés
után.
3. A Turing-teszt és az e-kommunikáció
Ha A.M.Turing megérte volna éppen 2002-ben
esedékes 90. életévét, valószínüleg elismerné,
hogy fantáziája nem volt elegendő ahhoz,
hogy előre lássa azt a technikai robbanást,
amely a számítástechnikában, elektronikában,
kommunikáció-technológiában bekövetkezett,
s amelynek eredményeként a jelenünk, mindennapjaink
részévé, napi gyakorlattá vált a Turing-teszt.
A mai információsnak nevezett, információ
alapú, vagy inkább e-kommunikációs társadalom
ugyanis egy "FEKETE DOBOZ" modellt
valósít meg. Ebben a modellben (lásd 2.ábra)
egy óriási információ tárolóval (ez a "fekete
doboz") kommunikál minden felhasználó
úgy, hogy a felhasználók EGYMÁS SZÁMÁRA valójában
ISMERETLENEK és csak a "fekete doboz"-hoz
való csatlakozás követel meg egyszerűbb,
vagy szigorúbb azonosítást ("bemutatkozást"),
fordítva ez ellenőrizhetetlen. Ma az internet
egyik fő vonzereje a "globális névtelenség",
ami egyúttal számos visszaélés és bűncselekmény
forrása is.
A modell tehát úgy működik, hogy mindenki
egy közös dobozba ("fekete doboz")
helyezi be az információit (lehet az személy,
cég, intézmény, stb.) és ebből mindenki annyit
vehet ki, amennyire a "fekete doboz"
engedélyt ad.
A globális kommunikációs modellje pontosan
úgy néz ki, mint egy megsokszorozott Turing-modell,
ahol mindenki a géppel kommunikál elektronikusan,
így mindenki lehet kérdező és kérdezett,
a gép pedig összegyűjti és tárolja az információt.
A globális modell tehát tömören leírható
Arkagyij Rajkin szavaival: "Én vagyok
itt (K). De ki van odaát ?!"
A válasz, mint látni fogjuk az információs
társadalom kulcskérdéséhez vezet. A.M.Turing
idézett 1950-es cikkében tesztjét így fogalmazta
meg:
"Azt állíthatjuk, hogy egy gép gondolkodik,
ha kérdéseket tehetünk fel neki, éspedig
tetszőleges kérdéseket és az úgy válaszol,
hogy ha nem 'nézünk oda', nem tudjuk, hogy
a felelet géptől, vagy embertől származik-e."
Turing gondolatmenete látnoki volt, ugyanis
tökéletesen illeszkedik a jelen e-társadalmának
felvázolt globális kommunikációs hálózataira.
A kommunikációs hálózat minden felhasználója
valóban egy monitor előtt ül és kérdéseket
tesz fel. A monitoron megjelenő válaszok
tartalmából azonban, ha odanézünk sem dönthető
el biztosan a válaszoló "személye",
így annak valódi, vagy virtuális volta sem
! (Természetesen itt a "személy"
jelölhet csoportot, céget, szervezetet, stb.)
A válaszoló személyének bizonytalansága tehát
felveti az ÁLTALA KÉPVISELT INFORMÁCIÓK VALÓDISÁGÁNAK,
A VIRTUÁLIS INFORMÁCIÓKNAK a problematikáját.
Így válik ez az elektronikus kommunikációs
rendszerek és ezáltal az információ alapú
társadalom kulcskérdésévé.
A globális e-kommunikációs rendszerekben
elhelyezett gépek, mint információgyűjtő
fekete dobozok, túl jól játszák az "utánzó
játékot", így sajnos a mesterséges és
természetes intelligencia megkülönböztetésének
problematikája sajnos hosszú időre a titkos
kutatólaboratóriumokba szorult, míg eme e-kommunikációs
rendszerekben a "Valódi vagy virtuális
információ?" alapkérdés váltja fel.
Ez egy egészen új kihívás.
Egy olyan társadalomban, amely az információk
szabadon áramló, tömeges áradatára épül (információ
alapú társadalom), reménytelen vállalkozás
minden információ valódiságát egzakt módon
ellenőrizni, így egyre nagyobb jelentőséggel
bír az információforrások "beolvadása"
a "fekete dobozba", amellyel az
információ így szinte teljesen személytelenné
válik.
A kérdező számára tehát már nem az a kérdés,
hogy emberi, vagy gépi intelligenciával áll
szemben, hanem azt kellene eldöntenie, hogy
a kérdéseire érkező válaszok valódi, vagy
virtuális "személytől" származnak,
azaz döntéseket építhet-e rájuk, vagy sem.
A kérdező így teljesen kiszolgáltatott helyzetbe
került, ami döntései szempontjából is jelentős
bizonytalanságot jelent.
|
Az új kérdés: Valós vagy
virtuális információ
?
Ez a kérdés nem azonos
a "természetes
vagy mesterséges?"-sel,
nem azonos az
"igaz vagy hamis?"-sal,
ez a kérdés
nem csupán a kommunikálókra
és nem csupán
a kommunikáció tartalmára,
hanem magára a
kommunikációra vonatkozik.
Az emberi kommunikációnak
csak a verbális
elemeit veszi át az e-kommunikáció,
a fekete
dobozba csupán a "tartalom",
vagy
inkább annak is csak a
"jel" része
kerül. Az emberi kommunikáció
legalább 50%-át
alkotó metakommunikáció
elvész. Pedig ez
az, amitől az információ
teljes, ez az a
redundancia, az a tartalék,
ami a kommunikációs
"hibák" felismerését,
esetleges
javítását lehetővé teszi.
Ez az 50% az, amely
azt a vonatkoztatási alapot
képezi, amelytől
a puszta "jel"
valódi "jelentéssé"
válik. Ez az a csoda, amelyre
Gábor Dénes
(1900-1979) gyermeki naivitással
rácsodálkozott,
mikor a holográfiát, a
teljes kép rekonstruálhatóságát
felfedezte. 1971. December
11-én a Nobel-díj
átvételekor tartott előadásán
ezt így adta
elő: "A közönséges
fényképen azonban
a fázisok teljesen elvesznek,
a fénykép csupán
az intenzitásokat örökíti
meg. Nem csoda,
hogy elveszítjük a fázist,
ha nincs mivel
összehasonlítani!"
Turing tesztje és így a
"természetes
vagy mesterséges intelligencia?"
kérdésfelvetése
magában hordozza azt a
rejtett feltételezést,
hogy az emberi nyelv tisztán
információelméleti,
illetve formális logikai
megfontolások alapján
képes a "teljes információ"
közvetítésére.
Azonnal hiányérzetünk támad
azonban, ha az
információ fogalma helyett
az ismeret fogalmát
használjuk a közölt üzenettel
kapcsolatban.
Ekkor ugyanis az üzenet
jelsorozat tulajdonságához,
annak jelentés tartalmát
is hozzárendeljük,
amely csupán valamely vonatkoztatási
rendszer
(értelmező, vagy fogalom-rendszer)
birtokában
értelmezhető.
Az információ mennyiségi
leírása statikus,
melynek következtében a
redundancia "felesleg",
így a mesterséges rendszereknél
a "racionális
szervezés" igyekszik
azt minimalizálni.
Ugyanakkor a természetes
kommunikációnak
a redundancia elengedhetetlen
része (pl.
metakommunikáció!), hiszen
éppen ez biztosítja
azt a vonatkoztatási rendszert,
amely az
üzenetet jelentéssel tölti
meg.
Kalmár László több területen
korát jóval
megelőzte (matematikai
nyelvészet, algoritmus
elmélet, kibernetikai kutatások
), így már
az 1960-as években a kvalitatív
információelmélet
problémájával foglalkozott.
Igyekezett felhívni
a figyelmet az információelmélet
továbbfejlesztésének
szükségességére, s rámutatott,
hogy a jelek,
jelsorozatok alakjában
továbbított információ
(üzenet) mennyiségi vizsgálatán
túllépve,
az információ tartalmi-minőségi
vonatkozásaival
is törődni kell. Sajnos,
amint erre már az
előzőkben utaltunk, a kor
nem kedvezett eme
gondolatok széleskörű elterjedésének,
de
a XXI. századi információ
alapú társadalom
újra kikényszeríti e problémakör
megoldását.
Ennek jegyében tesszük
fel a következő kérdést:
Lehet, hogy éppen a redundancia
rejti a természetes
és mesterséges intelligencia
között megbújó
titok kulcsát ? Eme kérdésre
adott pozitív
válaszunkkal mutatunk rá
arra, hogy a titok
kulcsa csupán egy olyan
ajtót nyit ki, amely
mögött újabb titok lappang.
Az újabb titok
a "valós vagy virtuális
információ?"
titka, amelynek megfejtéséhez
már ez a kulcs
kevés !
Az információelmélet igyekszik
minden információval
kapcsolatos fogalmat (jelenséget)
számszerűsíteni,
hogy azután a matematika
eszközeivel egzakt
tételeket, összefüggéseket
fogalmazhasson
meg. Így egy üzenet információmennyiségét
(nem ismeret mennyiségét!),
az üzenet váratlanságával
jellemzi, amely tulajdonképpen
egy valószínűségi
típusú érték.
Mindennapjaink részévé
váltak a képi információ
sűrítés szimbólumai, a
piktogrammok, valamint
játékos formában a szöveg
és képsűrítés keverékei
a képrejtvények.
A redundancia csökkentésével
tehát rövidíthetjük
az üzenetek átlagos hosszát,
de kérdés, hogy
mit tudunk kezdeni az így
"optimalizált"
üzenettel? A válasz meglepő!
A mesterséges kommunikációs
rendszerek szempontjából
valódi előny, hogy a rövidebb
üzenet gyorsabban
átvihető és kisebb helyen
tárolható. A kommunikáló
felek szempontjából azonban
éppen fordított
a helyzet, mivel így teljesen
védtelenné
válnak mindenféle véletlen,
illetve szándékos
hibával, torzítással szemben.
Nulla redundanciára érzékletes
példa a lottó
húzás, ahol nem lehet közelítőleg
eltalálni
a főnyereményt, ellenben
a beszédnyelvben
megadhatunk egy szót közelítőleg,
azaz hibásan,
akkor is felismerjük (pl.:
ha "borotva",
helyett a "barotva"
jelsorozat
érkezik). Fel kell hívni
a figyelmet a beszédnyelv
kihangsúlyozására, mivel
ugyanez például
a számítástechnikában alkalmazott
programozási
nyelvekre nem igaz. Ott
az utasítások, formulák
úgynevezett szintaxisát
pontosan be kell
tartani ahhoz, hogy a gép
"megértse".
Fontos, hogy az előzőkben
vázolt információátviteli
tulajdonságok, csupán a
kommunikációnak a
hírközlő csatornán (ez
lehet írott, hang,
kép átvitelére alkalmas
technikai eszköz)
átvitt, üzenet részére
vonatkoznak.
Információelméleti eszközökkel
az "értelmes",
"érthető" fogalmak
csak formálisan
értelmezhetők, így a mesterséges
kommunikációs
rendszerről fel kell tételeznünk,
hogy bizonyos
mennyiségű "formális
értelmetlenséget"
produkál, ezáltal megkülönböztethető
a természetes
intelligenciával rendelkező,
"értelmes"
rendszerektől. Pontosan
erre épül a Turing-teszt,
amely szerint a nagyon
jól utánzó gép, megkülönböztethetetlen
a természetestől.
A Turing-teszt K kérdezője
tehát azt lesi,
hogy mikor vesz észre "gépszerű"
hibát ("értelmetlenséget")
valamelyik
válaszban. A hiba fogalma
azonban, mint az
a fenti információelméleti
gondolatmenetből
kiderült, legalább olyan
nehéz fogalom, mint
a természetes vagy mesterséges
intelligencia
megkülönböztetése. Akkor
vagy az eddigi eszközeink
nem alkalmasak eme jelenségek
megkülönböztetésére,
vagy maga a kommunikációs
rendszer bonyolultabb,
mint eddig feltételeztük
?
Redundancia a kommunikációban
A XX.század utolsó harmada
az információ
tömegtermelésének kora,
amely mint minden
tömegjelenség, kezdte a
"méregfogait"
is kimutatni.
Az eltárolt temérdek információ
dzsungelében
egyre nehezebb lett az
eligazodás, így szükségessé
vált az optimalizálás,
amely a kor szellemének
és az elméleti, valamint
technikai háttérnek
megfelelően, a mennyiségi
paraméterekre vonatkozott.
Hogy lehet az információt
minél kisebb helyre
tömöríteni, ezáltal minél
gyorsabban átjuttatni
az információs csatornán
és végül minél kisebb
helyen tárolni ?
A hardver eszközök térfogategységre
jutó
kapacitása exponenciálisan
nőtt, azaz egyre
nagyobb mennyiségű információt
képesek tárolni,
egyre kisebb helyen (lásd
a ma már közforgalomban
kapható laptop (táska),
palmtop (marok) számítógépeket),
míg ugyanez a növekedés
a "gépek"
architektúrájában és a
felhasználó szempontjából
létfontosságú gép és ember
közötti kommunikációt
szolgáló szoftverben egyáltalán
nem jött
létre. A napjainkban tömegesen
alkalmazott
asztali, laptop, palmtop
számítógépek alapvető
hardver architektúrája
még mindig megegyezik
a Neumann János által leírtakkal,
sőt amint
az a jelen dolgozat történeti
bevezetőjéből
kiderül, tulajdonképpen
C.Babbage XIX. századi
elképzeléseivel. Így a
jelen globális kommunikációs
rendszereiben, a felhasználó
ember teljesen
magára maradt, szuper teljesítményű,
de "intelligenciáját"
tekintve XIX. századi digitális
eszközeivel.
Napjainkra előállt tehát
az a paradox helyzet,
hogy a redundancia egyszerre
vált "ellenséggé"
és mint a fentiekben rávilágítottunk,
az
információ-biztonságot
támogató eszközzé.
A racionális törekvések,
a gazdasági, üzleti
szempontok diktálta fogyasztói
társadalomban
mégis az előbbi irányba
húztak, sőt a digitális
technika térhódításával
egyre erőteljesebb
a redundancia "ellenség-képe".
A digitális technikával,
ami napjaink és
várhatóan a közeljövő uralkodó
technikája,
óriási számhalmazokká képezzük
le egész környezetünket,
az e-kommunikációban még
gondolatainkat is,
így valójában egy digitális
világot építünk
fel, amely bizonyos értelemben
újraéleszti
az ókori számmisztikát.
A digitális világ, azaz
napjaink számmisztikája
ettől lényegesen különbözik,
mivel a digitalizált
információ számdömpingjében
éppen a számok
"számtulajdonságait"
hántjuk le
és egyszerű "számkódok"-ként
használjuk
fel őket. A digitális számhalmazok
így tulajdonképpen
jelhalmazokká, kódhalmazokká
válnak, amelyek
semmiben sem különböznek
a nem numerikus
jelkészletektől (szimbólumoktól,
ABC-ktől).
A globális e-kommunikáció
"fekete dobozában"
tehát egyre nagyobb mennyiségű,
mesterségesen
elhelyezett, "természetes
értelmetlenség"
található! A globális kommunikáció
"fekete
doboza" pillanatnyilag
úgy tekinthető,
mint a digitális világ
Bábel tornya, amelyben
az emberi nyelvek különböző
számkódokká keveredtek
össze, melyeknek megértéséhez,
azaz ahhoz,
hogy az információk jel
alakját ismeretté
konvertáljuk, már egyáltalán
nem elegendő
csupán a nyelv ismerete.
Ebben a "természetes
rendetlenségben"
kell rendet teremtenünk,
ha azt akarjuk,
hogy "fekete dobozunk"
hasonlítson
a természetes intelligenciához.
Ennek módja
azonban csak a TALÁLD MEG
filozófián át vezet.
Azaz éppen a racionális,
gazdasági, üzleti
megfontolásokból feleslegesnek
tartott redundancia
segítségével kell jelentést
találni az információ
(jel) tömegnek, majd (ha
még mindig nem értelmes
számunkra az üzenet), a
TALÁLD KI filozófia
alkalmazásával jutunk a
számunkra is értelmezhető,
azaz a természetes intelligencia
számára
befogadható ismerethez.
Kérdés tehát, hogy a TALÁLD
MEG filozófia
kivitelezésére alkalmas-e
az emberi (vagy
egyéb) nyelv? Ez a sarkalatos
kérdés a "valódi
vagy virtuális információ?"
megválaszolásával
ekvivalens !
Világos ugyanakkor, hogy
ez nem azonos Turing
kérdésével ("természetes
vagy mesterséges
intelligencia?"),
így a Turing-teszt
sem lehet alkalmas e kérdés
megválaszolására.
Sőt az e-rendszerekben
magának a Turing-tesztnek
az alkalmazhatóságát is
bizonytalanná teszi!
Márpedig az információs
társadalomban a Turing-teszt
napi gyakorlattá válik
és a globális kommunikációs
rendszerek fekete dobozában,
a két stratégia
bábeli keveréke áll elő.
Felmerül tehát ílymódon
az információk azonosíthatóságának,
valódiságának,
azaz az információ-biztonság
garantálhatóságának
problémája, vagyis a "valós
vagy virtuális
információ?" alapvető
jelentőségű kérdése,
amelyre mindenképpen egy
információ-alapú
társadalomnak válaszolnia
kell!
A Turing-teszt e-gyakorlata
A mesterséges intelligencia
éppen az emberi
racionalitás miatt, csak
a jó, pozitív, "hasznos"
emberi, illetve élő tulajdonságokat
igyekszik
modellezni (lemásolni).
Hiszen az emberiségnek
eme tulajdonságokkal lehet
általában a teljesítményét
maximalizálni. Attól jó
egy gép, ha "fáradhatatlan",
kiszámíthatóan, biztonságosan
működik. Például
az emberi fáradást, betegségeket,
vagy más
tökéletlenséget senkinek
nem áll érdekében
lemásolni, modellezni,
gépi formában reprodukálni.
Éppen ezért a mesterséges
(gépi) rendszerek
tesztelésére olyan pozitív
tulajdonságok,
paraméterek meglétét tételezzük
fel, amelyekkel
általában az ember (vagy
az élő organizmus)
rendelkezik. Ilyen tulajdonságok
például
az organizmusban keletkező
hibák kijavítása,
az organizmus reprodukáló,
vagy alkalmazkodó
képessége, stb.
A.Turing is arról beszél,
hogy az ezredfordulón,
amit éppen jelenként élünk
meg, "a gépek
elég jól fogják játszani
az utánzó játékot"
és ezalatt azt érti, hogy
"elég intelligensen
lehet egy géppel kommunikálni".
Így
tehát, ha Kempelen Farkas
módjára egy gépben
elég ügyesen emberi intelligenciát
helyezünk
el (éppen ez történik az
e-kommunikációs
rendszerek fekete dobozában!),
azaz "virtuális
gép-embert" készítünk,
akkor a saját
teljesítményközpontúságunk
akadályoz meg
abban, hogy az utánzó játékkal,
mint tesztelési
lehetőséggel célhoz érjünk,
ha a gépet és
az embert akarjuk megkülönböztetni
egymástól.
Turing fent idézett példája
tükrözi azt a
humánus személyiséget,
aki nem tud a valódi,
a szó szoros értelmében
vett gép - ember
viszonyon túllépni, akinek
látnoki képzelőereje
sem volt képes a tiszta
játékszabályokon
túlra látni. Ezért csupa
tényszerű, vagy
konkrét emberi cselekvésre
irányuló kérdés
(kérés) képezi a képzeletbeli
párbeszédeit.
Kritikája, probléma listája
is mélyen emberi!
A valóságos jelenségvilágból
nem tud (valószínűleg
nem is akar!) kiszakadni
. Ezért talán joggal
hitte azt, hogy a tesztje
valóban el tudja
dönteni a "tudnak-e
a gépek gondolkodni?",
avagy a "természetes
vagy mesterséges
intelligencia?" kérdését.
Turing gondolatkísérlete,
mára a globális
e-kommunikációs rendszerek
mindennapi gyakorlata,
amely az alábbihoz hasonló
párbeszédek millióit
hozza létre a nap 24 órájában
(az alábbi
párbeszéd-töredék csak
modellezi a valódi
gyakorlatot).
V: 8-kor a CSA-ban mindenki
ott lesz. Gyere
Te is!
K: Mi a téma?
V: QKAC, IDTLEN és még
sok fontos téma, ami
mindenkit érdekel.
K: Szó lesz a PARA-MÉTER-ről?
V: Biztos, mert sok mindenről
szó lesz.
K: ….
Mint azt példánk is jól
szemlélteti, az általános
alany stílusában (megszólítás,
személyes
azonosítás és azonosíthatóság
nélkül) megfogalmazott
célirányos, "hatékonyságra"
törekvő
kommunikációnál, amely
az e-kommunikációban
tulajdonképpen információtovábbítássá
zsugorodik
és szinte "felesleggé
válik" a
metakommunikáció. Azaz
a fentiek alapján
éppen az üzenet "jelentéstartalmának
vonatkoztatási rendszere"
válik az "idő
pénz" szemlélet martalékává.
Igen szemléletesen
mutatják ezt a tömörítési
törekvést, az e-kommunikációban
gyakorta használt (csupán
szűk kommunikációs
csoportok számára érthető)
rövidítések, vagy
például a tájékoztatásban,
"reklám-kommunikációban"
használt piktogramok, stb.
A jelen információs társadalmában
az egyedek
"észrevétlenül",
mint digitálisan
tárolt adatsorok képződnek
le a "fekete
doboz(ok)ba", a "digitális
Bábel
tornyokba". Ezek az
adatsorok egyre
több és részletesebb adatot
tartalmaznak,
a tárolók részéről azzal
a racionális igyekezettel,
hogy minimális legyen a
tárolt információk
redundanciája. Ugyanakkor
alapvető kérdés,
hogy "ki a tároló
(tárolt információk)
tulajdonosa ?", aki(k)nek
módjában lehet
a "fekete dobozba"
rejtett temérdek
titok (információ) ismeretté
konvertálása,
majd jó vagy rossz célokra
való felhasználása.
A racionalitás, azaz az
általános redundancia-minimalizálásra
törekvés során megszületik
az e-társadalom,
amelyben e-rétegződés,
e-mobilitás, e-kultúra
és így egyáltalán e-gyetlen
rendező elv szerepel:
ez az "e-gy értékű
társadalom".
Az e-gy társadalomban az
emberek e-mberekké
válnak, azaz olyan digitális
információ-
halmazokká, amelyek (és
nem akik!) már a
hatalom (az információs
fegyver birtokosai)
számára nem különböznek
bármely virtuálisan
előálló információ-halmaztól,
így tetszés
szerint manipulálhatók.
Szomorú, hogy akárcsak
Orwell 50 évvel ezelőtti
"utópiája" (lásd
G.A.Orwell: 1984
című regényét), mely szerint
"Az embernek
annak tudatában kellett
élnie, hogy lehallgattak
minden hangot, amit kiadott,
s a sötétséget
leszámítva minden mozdulatát
megfigyelték.",
amely a valóban elektronikus
és globális
ECHELON műholdas lehallgató
rendszer képében
[DÉNT 01/2] mára megvalósult
tény, ugyanígy
sajnos az információs fegyver
elképzelése
sem helyezhető az utópiák
távoli világába,
hiszen a mai reklám (főleg
az e-reklám, e-média,
e-sajtó) és PR eszközök
tartalmazzák már
eme manipulációs csírákat.
Lehet, hogy a globális
információs rendszerekkel,
az e-gy társadalom alapkövét
helyezzük el?
Lehet, hogy a XXI. század
információs társadalmának
"csodafegyvere"
a valós és virtuális
világot megkülönböztethetetlenné
tevő információs
fegyver lesz ?
Lehet, hogy ez a fegyver
az abszolút gazdasági
racionalitás doktrínáját
megvalósítandó,
már semmiféle látványos
pusztítást nem végez,
csupán a valódi emberek
tömeges, virtuális
manipulációját valósítja
meg, a globális
és helyi hatalom kénye-kedve
szerint ?!
Lehet, hogy ezekre és még
sok hasonló kérdésre
kellene egy valódi EMBER
központú, valóban
TUDÁSALAPÚ társadalomnak
igazi válaszokat
keresni, mielőtt felállítja
az "információs
társadalom = e-társadalom"
egyenletet
?
A lehetőség ma még, az
utolsó pillanatban
adott. Ehhez azonban fel
kell ismernünk a
már létező és a globális
e-gy társadalmakban
rohamosan terjedő "virtuális
agárverseny
effektus"-t, amely
így foglalható össze
röviden: "Érjük utol
a nemlétező nyulat
egy virtuális agárversenyen
!"
Zárszó helyett
Az 1999-es év egyik szenzációja
volt, hogy
a digitálisan létrehozott
"filmszínésznő",
Lara Croft világsikere
után, egy kaliforniai
filmcég (Virtual Celebrity)
bejelentette
az első digitális klón
megszületését. Ez
a digitális klónozás Marlene
Dietrich arcát
keltette életre és így
a már régen elhunyt
sztár, egy újonnan készült
30 másodperces
filmben szerepelhetett
a maga "virtuális
valóságában"!
Digitálisan létrehozott
"virtuális barátaink"
napról napra gyarapodnak,
ezek sorából különös
jelentőségénél fogva ki
kell emelni AnaNovát,
az első televíziós bemondónőt,
"aki"
majdnem tökéletes angol
kiejtéssel, búgó
hangján szól a képernyőkön
keresztül rátapadó
(főleg férfi) nézőkhöz.
E "valós vagy virtuális
információ?"
problematikáját elemző
cikk végére, mint
felkiáltó mondat végére,
tette ki az élő
felkiáltójelet maga az
élet (MTI, 2002. április):
"Az USA Legfelsőbb
Bírósága engedélyezte
a gyermek pornó filmeket,
amennyiben nem
élő, hanem csak virtuális
szereplők szerepelnek
benne."
|
Irodalomjegyzék
[DÉNT 78] T. Dénes: Graph
theoretical approach
to structural
representation of systems
Proceedings of the Fourth
International Conf.
for Pattern
Recognition, Kyoto, Japan
1978.
[DÉNT 00/1] Dénes Tamás:
REJTJELFEJTÉS
Trükkök, módszerek, megoldások
Magyar Távközlés, XI.évf.
4.szám, 2000. április
[DÉNT 00/2] Dénes Tamás:
DIGITÁLIS UJJLENYOMAT
A dokumentumvédelem új
korszaka
Magyar Távközlés, XI.évf.
5.szám, 2000. május
[DÉNT 01/1] Dénest Tamás:
Biztonságos Információ
(s) Társadalom
INFO TÁRSADALOMTUDOMÁNY,
2001/53.
[DÉNT 01/2] Dénes Tamás:
ECHELON az e-társadalom
információpajzsa ?
Híradástechnika, 2001/6
[DÉNT 01/3] Dénes Tamás:
SZTEGONOGRÁFIA
Rejtett információk rejtjelzés
nélkül
Híradástechnika, 2001/8.
[DÉNT 02/1] Dénes Tamás:
TITOK TAN avagy
Kódtörő ABC
KRIptográfia MIndenkinek
Bagolyvár Kiadó, Budapest,
2002.
[DÉNT 02/2] Dénes Tamás:
INFOSANCE, a jövő
INFOrmációs renaisSANCE
társadalmának esélye
eVilág, I.évf. 4.szám,
2002.július
[FEFISH 87] U.Feige,A.Fiat,A.Shamir:
Zero-knowledge
proofs of identity
in: Proceedings of the
19th ACM Symposium
on the Theory of Computing,
New York,
ACM Press,1987.
[FUTÓ 99] Futó Iván (ed.):
Mesterséges intelligencia
Aula Kiadó, Budapest, 1999.
[GÁBOR 76] Gábor Dénes:
Válogatott tanulmányok
Gondolat, Budapest, 1976.
[HODG 83] A. Hodges: Alan
Turing: The Enigma.
Burner Books Ltd., London,
1983.
[KALM 86] Kalmár László:
Integrállevél
Gondolat, Budapest, 1986.
[NEMES 62] Nemes Tihamér:
Kibernetikai gépek
Akadémiai Kiadó, Budapest,
1962.
[NEME 91] Nemetz Tibor,
Vajda István: Bevezetés
az algoritmikus adatvédelembe.
Akadémiai Kiadó 1991.
[NEUM 72] Neumann János:
A számológép és
az agy
Gondolat Könyvkiadó, Budapest,
1972.
[NEWT 97] David E.Newton:
Encyclopedia of
cryptology
ABC-CLIO, Santa Barbara,
California, Denver,
Colorado,
Oxford, England 1997.
[PETSO 88] Ivars Peterson:
Computing a Bit
of Security: Zero-knowledge
proofs in
Data Encryption
Science News, 16 January
1988.
[SHANN 48] C.E.Shannon:
The Mathematical
Theory of Communication
Bell System Technical Journal,
1948. July
and October
[SHANN 49] C.E.Shannon:
Communication Theory
of Secrecy Systems.
Bell System Technical Journal
28 (1949) 656-715.
[SHANN 51] C.E.Shannon:
Prediction and entropy
of printed English
Bell System Technical Journal,
1951. January
[SHANN 62] Claude E.Shannon
and Warren Weaver:
The Mathematical Theory
of
Communication
Urban: University of Illionis
Press, 1962.
[SINGH 00] Simon Singh:
The science of secrecy
(The secret history of
codes and codebreaking)
London, 2000.
[STEW 96] Ian Stewart:
Proof of Purchase
on the Internet: Zero-knowledge
Protocols
Scientific American, February
1996., 124-125
[TARJ 58] Tarján Rezső:
Gondolkodó gépek
Bibliotheca Kiadó, Budapest,
1958
[TURING 50] A.M. Turing:
Computing Machinery
and Intelligence
Mind, 9(1950), 433-460
[WAYN 87] Peter Wayner:
Zero-knowledge proofs:
Data Encryption
Byte, October 1987, 149-152
------------------------------------------------------------------------------------------------------------------------
|