AI1.pdf

(91 KB) Pobierz
Microsoft Word - 02-wstep-ogólny.doc
1 Wst ę p do metod AI
1.1 Wprowadzenie
AI, czyli sztuczna inteligencja, ma dług ą prehistori ę , któr ą wywie ść mo ż na od pi ę knej idei Ramona Lull z XIII
wieku. Ten katalo ń ski filozof i teolog, franciszkanin, podj ą ł prób ę stworzenia systemu logicznego,
obejmuj ą cego wszystkie gał ę zie wiedzy, wydaj ą c znakomite na owe czasy dzieło Ars magna generalis et
ultimata . Ju ż wtedy marzył on o j ę zyku, który byłby na tyle precyzyjny i jednoznaczny, by wszelkie zagadnienia
w nim rozstrzyga ć . Dopiero pojawienie si ę komputerów dało impuls do rozwoju sztucznych j ę zyków,
potrzebnych do zapisu programów. Pierwsze prace nad j ę zykami algorytmicznymi, czyli j ę zykami do zapisu
algorytmów, prowadzono dopiero na pocz ą tku lat 50-tych tego wieku. Teoria j ę zyków algorytmicznych
rozwini ę ta została w pracach wielu informatyków. W praktyce tylko niektóre j ę zyki algorytmiczne oparte s ą na
dobrze zdefiniowanych podstawach teoretycznych. Starsze j ę zyki, takie jak Fortran czy Cobol powstawały w
sposób nieomal spontaniczny.
Gottfried Wilhelm Leibniz, ur. 21.06.1646 w Lipsku, zmarły 14.11.1716 w Hannowerze, pochowany w
nieznanym grobie, mógłby by ć patronem informatyków. Studiował w Moguncji, porz ą dkował prawo rzymskie,
tam te ż sporz ą dził plany maszyny licz ą cej. W Pary ż u pisze o filozofii, teologii, alchemii, matematyce,
dyplomacji i polityce, lecz dla swojej maszyny nie znajduje budowniczego. W 1675 odkrywa rachunek
ż niczkowy, system dwójkowy, rachunek logiczny, rozwa ż a równie ż j ę zyk do opisu poj ęć ( characteristica
universalis ). Z jego inicjatywy powstała Pruska Akademia Nauk. W 1694 za ogromn ą sum ę 24000 talarów
buduje niezbyt doskonał ą (z przyczyn mechanicznych) czterodziałaniow ą maszyn ę licz ą c ą . W maszynie tej
wprowadził zasady, u ż ywane przez setki lat w mechanicznych kalkulatorach. Od 1679 roku Leibnitz rozwa ż
projekt maszyny działaj ą cej w systemie dwójkowym.
W 1712 próbuje zrobi ć dla cara Piotra Wielkiego, na którego dworze przebywa przez par ę lat, kolejn ą maszyn ę
licz ą c ą . Ta próba równie ż sko ń czyła si ę niepowodzeniem. Znany był ju ż wtedy rachunek na symbolach, chocia ż
jeszcze w 1570 roku Hieronimus Cardanus udowadniał, ż e dla symboli (-a)*(-b) nie równa si ę a*b a Ch. Clavius
pisał w 1600 roku: umysł ludzki nie jest w stanie uchwycić powodów, dla których niewiadome i ich
znaki zachowują się w taki sposób. W 1680 roku Leibniz pisz ą c o „rachunku filozoficznym” wyra ż a
nadziej ę , ż e w przyszło ś ci dzi ę ki rozwojowi logiki matematycznej zamiast si ę spiera ć , wystarczy policzy ć .
Jak napisał jeden z pionierów w dziedzinie AI „Obszary bada ń naukowych powstaj ą w wyniku skupienia si ę
zainteresowania uczonych wokół ró ż nych zjawisk. Nauki nie powstaj ą w wyniku definicji, ale zostaj ą
rozpoznane” (A. Newell, 1973). Jako dobrze zdefiniowana dziedzina nauki AI została „rozpoznana” w latach
50-tych. Dwa główne pr ą dy naukowe, które si ę do tego przyczyniły to rozwój logiki matematycznej i rozwój
teorii oblicze ń . Church, Turing i inni matematycy zrozumieli jeszcze przed zbudowaniem komputerów, ż e
obliczenia nie dotycz ą tylko liczb a raczej przetwarzania symboli. Allan Turing, angielski matematyk, jest
najcz ęś ciej wymieniany jako „ojciec” sztucznej inteligencji jako dziedziny naukowej, gdy ż jego teoria działania
automatów i jego prace dotycz ą ce mo ż liwo ś ci inteligentnego zachowania si ę komputerów stanowi ą teoretyczne
podstawy tej dziedziny.
W ś ród innych pr ą dów, które przyczyniły si ę do powstania AI wymieni ć nale ż y trzy, wszystkie powstałe w 1949
roku. Claude Shannon prowadził rozwa ż ania nad przesyłaniem informacji w telekomunikacji i napisał ksi ąż k ę ,
w której po raz pierwszy zdefiniowano ilo ś ciowo, co to jest informacja. Norbert Wiener wydał ksi ąż k ę
„Cybernetyka czyli sterowanie i komunikacja w zwierz ę ciu i maszynie”, rozpoczynaj ą c tym samym szeroki nurt
nauk cybernetycznych. W tym samym roku powstał równie ż pierwszy model sieci nerwowej (McCulloch i Pitts)
jako układu elementów logicznych. Chocia ż formalnie rzecz bior ą c informatyka jest nauk ą o przetwarzaniu
informacji metody teorii informacji znajduj ą wi ę ksze zastosowanie w telekomunikacji ni ż przy projektowaniu
komputerów.
Wszystkie te nurty poł ą czone zostały wkrótce po zbudowaniu pierwszych komputerów. Inteligencja wymaga
zło ż ono ś ci, a komputery po raz pierwszy w historii pozwalaj ą na budow ę dostatecznie zło ż onych układów by
zaatakowa ć takie zagadnienia jak gra w szachy, dowodzenie twierdze ń czy tłumaczenie z jednego j ę zyka na
2
Wst ę p do Metod Sztucznej Inteligencji
drugi. Bardzo szybko okazało si ę , ż e nie potrafimy znale źć algorytmów na rozwi ą zywanie tego typu zagadnie ń ,
wymagaj ą one „inteligencji”. Ludzie wykonuj ą pewne czynno ś ci nie zdaj ą c sobie sprawy z tego, w jaki sposób
to robi ą . Zrozumienie tego faktu w latach 50-tych (bynajmniej nie było to wtedy takie oczywiste, wydawało si ę
wówczas, ż e zaprogramowanie bardzo zło ż onych zachowa ń to tylko kwestia wielko ś ci pami ę ci i szybko ś ci
działania komputera) stanowi pocz ą tek AI jako dziedziny nauki. Formalnie jako nauka AI powołana została do
ż ycia w 1956 roku, podczas jednej z konferencji specjalistycznych, a wi ę c powstała na długo przed powstaniem
nazwy „informatyka”. Najlepsza jednozdaniowa definicja AI brzmi nast ę puj ą co:
Sztuczna inteligencja to dziedzina nauki zajmuj ą ca si ę rozwi ą zywaniem zagadnie ń
niealgorytmizowalnych przy pomocy komputerów.
AI formalnie stanowi cz ęść informatyki, ale bliska jest psychologii i „cognitive science” czyli. „naukom
poznawczym” lub „kognitywnym”, w skład których wchodz ą takie dziedziny jak neuropsychologia, teoria
mózgu, psycho i neurolingwistyka, zagadnienia filozofii umysłu. Jednocze ś nie rozwijaj ą si ę zastosowania:
wsz ę dzie tam, gdzie nie ma pełnej teorii i wymagane s ą inteligentne decyzje (cz ę sto próby zgadni ę cia bardziej
ni ż udowodnienia), w tym w badaniach naukowych, potrzebne s ą metody AI. By ć mo ż e jednym z najbardziej
udanych zastosowa ń metod sztucznej inteligencji s ą popularne obecnie programy do oblicze ń symbolicznych
przy pomocy algebry komputerowej.
Najsilniejsze o ś rodki w tej dziedzinie to najlepsze ameryka ń skie uczelnie: MIT, Stanford, CalTech, Berkeley. W
Europie uprawia si ę AI nie tylko na uniwersytetach (Edynburg w Szkocji i Marsylia w Francji to jedne z
najlepszych o ś rodków) lecz równie ż w wielkich firmach komputerowych.
AI zajmuje si ę projektowaniem inteligentnych systemów, tj. wykazuj ą cych cechy podobne do cech
inteligentnego działania człowieka: rozumowania, uczenia si ę , rozumienia j ę zyka, rozwi ą zywania problemów.
Celem głównym jest zrobienie m ą drzejszych komputerów. Celem wtórnym (dla ch ę tnych na Nobla) jest
zrozumienie czym jest inteligencja. Dla niektórych badaczy stało si ę to jednym z głównych celów. Pionier
bada ń w dziedzinie AI, Allen Newell, zaproszony został w 1987 roku do prowadzenia serii niezwykle
presti ż owych wykładów Williama Jamesa (najsłynniejszego ameryka ń skiego psychologa) na Harvard
University. Przy tej okazji wygłosił swoje kredo: psychologia dojrzała ju ż do zunifikowanych teorii poznania,
czyli takich teorii, które postuluj ą spójny system mechanizmów pozwalaj ą cych wyja ś ni ć wszystkie aspekty
działania umysłu. Teorie poznania odwołuj ą si ę do modeli komputerowych rozwijanych przez specjalistów od
sztucznej inteligencji. Pogl ą d taki w dalszym ci ą gu uznawany jest za kontrowersyjny. D ąż enia i ambicje
sztucznej inteligencji jako gał ę zi nauk formułuje si ę w dwóch wersjach:
Wersja słaba AI mówi, ż e komputer pozwala formułowa ć i sprawdza ć hipotezy dotycz ą ce mózgu. W tej wersji
AI nie ma wielu oponentów gdy ż jest wiele dowodów na jej oczywist ą przydatno ść . Nie ma równie ż
w ą tpliwo ś ci, ż e niektóre metody AI, chocia ż odmienne od stosowanych przez układy biologiczne, pozwalaj ą na
osi ą gni ę cie podobnych rezultatów, a wi ę c mo ż liwa jest komputerowa symulacja inteligentnego działania.
Wersja silna AI mówi, ż e komputer odpowiednio zaprogramowany jest w istotny sposób równowa ż ny
mózgowi i mo ż e mie ć stany poznawcze. Wersja ta jest cz ę sto atakowana i tocz ą si ę nieko ń cz ą ce si ę spory
filozoficzne, czy jest to w ogóle mo ż liwe. Nie chodzi tu ju ż tylko o symulacje inteligencji ale o osi ą gni ę cie
„prawdziwej inteligencji”, a wi ę c czego ś , czego nikt nie potrafi do ko ń ca zdefiniowa ć .
Takie rozró ż nienie pochodzi od specjalistów w zakresie filozofii sztucznej inteligencji. Niezale ż nie od wyników
takich dyskusji AI jest dziedzin ą , która mo ż e zmieni ć całkowicie nasz ś wiat i z tego wzgl ę du jest potencjalnie
bardzo niebezpieczna. Dla badacza jest to dziedzina troch ę niewdzi ę czna bo trudno jest znale źć (tak jak w
fizyce) proste i ładne rozwi ą zania, prawa inteligencji. By ć mo ż e prawa takie nie istniej ą , a by ć mo ż e jakie ś s ą
np. zasada nieoznaczono ś ci wi ążą ca ś cisło ść wyniku (rozwi ą zania) z jego zło ż ono ś ci ą tj. liczb ą operacji
potrzebn ą do jego znalezienia.
Według Patrica Winston'a w rozwoju AI wyró ż ni ć mo ż na kilka okresów, które nazywa on nast ę puj ą co:
Era prehistoryczna : od maszyny analitycznej Charles'a Babbage (1842) do około 1960 roku, kiedy pojawiły
si ę powszechnie dost ę pne komputery.
Era romantyczna , 1960-1965, kiedy przewidywano, ż e AI osi ą gnie swoje cele w ci ą gu 10 lat i odniesiono
sporo pocz ą tkowych sukcesów.
3
Wst ę p do Metod Sztucznej Inteligencji
Okres ciemno ś ci : 1965-1970, w którym niewiele si ę działo, opadł entuzjazm i pojawiły si ę głosy bardzo
krytyczne.
Renesans : 1970-1975, gdy zacz ę to budowa ć pierwsze systemy doradcze, u ż yteczne w praktyce.
Okres partnerstwa : 1975-1980, gdy do bada ń nad AI wprowadzono metod z wielu nauk, np. z lingwistyki,
nauk poznawczych i nauk o mózgu.
Okres komercjalizacji : 1980-1990, gdy programy AI, a szczególnie systemy doradcze i ich uniwersalne
oprawy (shells), zacz ę to szeroko sprzedawa ć komercyjnie.
W latach 90. w sztucznej inteligencji zacz ę ły si ę pojawia ć systemy hybrydowe, w których u ż ywa si ę zarówno
technik symulacyjnych, wyrastaj ą cych z bada ń nad sieciami neuronowymi, jak i inspiracji ewolucyjnych oraz
ż nych form logiki, pozwalaj ą cych na radzenie sobie z informacj ą niepewn ą . Pojawiły si ę równie ż próby
rozwi ą zywania problemów wymagaj ą cych inteligencji na drodze symulacji du ż ej liczby prostych organizmów,
mieszcz ą ce si ę w nurcie „sztucznego ż ycia” (artificial life). Psycholodzy (np. J.J. Gibson w 1986 roku)
zaproponowali nowe podej ś cie, nazwane „inteligencj ą behavioraln ą ”, w ramach którego usiłuje si ę
wyewoluowa ć zachowania inteligentne dzi ę ki oddziaływaniom z naturalnym ś rodowiskiem. Podej ś cie to zrywa
z rozpowszechnionym paradygmatem jawnej reprezentacji ś wiata i wiedzy wewn ą trz systemu. Robotycy w
połowie lat 90. zacz ę li robi ć eksperymenty z takim podej ś ciem. Wprowadzono te ż „agentów programowych”,
programy wykazuj ą ce zło ż one, autonomiczne zachowanie w sztucznym ś rodowisku (np. w Interencie).
1.2 Kluczowe zagadnienia AI
Siła nap ę dow ą sztucznej inteligencji s ą liczne zastosowania programów komputerowych u ż ywanych do
rozwi ą zywania zagadnie ń , które nie s ą efektywnie algorytmizowalne. Nale żą do nich nast ę puj ą ce zagadnienia:
Rozwi ą zywanie problemów : gry i zagadki logiczne, techniki przewidywania w ograniczonych przestrzeniach
zachowa ń . Główne metody to szukanie i redukcja problemów. Mistrzowskie rezultaty osi ą gni ę to w warcabach,
szachach i wielu innych grach planszowych, ale niektóry gry (np. go ) wymagaj ą rozwini ę cia bardziej
wyrafinowanych technik. Obliczenia symboliczne przy pomocy programów algebry komputerowej nale żą
równie ż do tej kategorii.
Rozumowanie logiczne : dowodzenie twierdze ń przez manipulowanie faktami z bazy danych zapisanych jako
dyskretne struktury danych. Chocia ż mo ż na tu stosowa ć metody ś cisłe szczególnie interesuj ą ce s ą problemy
du ż e, w których trzeba si ę skupi ć na istotnych faktach i hipotezach, st ą d zainteresowanie AI. Projektowanie
układów logicznych cz ę sto zawiera elementy AI.
J ę zyk naturalny : rozumienie j ę zyka, odpowiedzi na pytania w j ę zyku naturalnym, budowa baz danych z
tekstów np. ksi ąż ek, tłumaczenie maszynowe, rozumienie mowy mówionej. Główne problemy to wiedza
kontekstowa i rola oczekiwa ń w interpretacji znacze ń .
Programowanie : tj. programowanie automatyczne lub autoprogramowanie, opis algorytmów przy pomocy
zwykłego j ę zyka, nie tylko by pisa ć programy automatycznie ale te ż by modyfikowa ć swój własny program.
Szczególnie programowanie dost ę pu do baz danych (programi ś ci s ą dobrze opłacani, st ą d próby ich
wyeliminowania), na tyle proste by było zrozumiałe dla menagerów i komputerowych laików jest szybko
rozwijaj ą c ą si ę dziedzin ą wykorzystuj ą c ą idee AI.
Uczenie si ę : jedno z najwa ż niejszych inteligentnych zachowa ń (z rzadka wykazywane przez niektórych
studentów). Jest to zagadnienie bardzo trudne i mało rozumiane. Uczenie si ę na przykładach, przez analogi ę , w
klasycznych systemach AI prawie nie wyst ę puje. Uczenie maszynowe jest do ść ezoterycznym, lecz bardzo
wa ż nym działem AI.
Ekspertyza : systemy doradcze lub eksperckie, tworzone przez „in ż ynierów wiedzy” tj. tych, którzy znaj ą si ę na
reprezentacji (przechowywaniu) wiedzy, udost ę pniaj ą ce t ę wiedz ę w czasie konsultacji tj. dialogu z systemem.
Systemy eksperckie powinny te ż wyja ś ni ć swoje rozumowanie człowiekowi. Najpierw konieczna jest
„akwizycja wiedzy”, jest to du ż y problem bo wi ę kszo ść wiedzy nie jest ś wiadoma, wynika z do ś wiadczenia.
Gotowy system powinien pozwoli ć na: wyja ś nienie problemu, wykonanie testów, zadawanie pyta ń i
proponowanie rozwi ą za ń , uzasadnienie przyj ę tych rozwi ą za ń i ocen ę ich wiarygodno ś ci. O systemach
4
Wst ę p do Metod Sztucznej Inteligencji
ekspertowych du ż o si ę mówi i pisze, powstało sporo drobnych systemów do ró ż nych zastosowa ń , sporo
„powłok”, czyli programów ułatwiaj ą cych tworzenie systemów eksperckich. W codziennym u ż yciu jest jednak
mało du ż ych systemów eksperckich, gdy ż du ż e systemy s ą mało stabilne i powolne. Wiedza eksperta dotyczy
w ą skiej i dobrze zdefiniowanej dziedziny, du ż o trudniej jest podrobi ć zdrowy rozs ą dek.
Robotyka i widzenie komputerowe: w tej dziedzinie tworzy si ę programy manipuluj ą ce ko ń czynami robotów,
optymalizuj ą ce ruchy i planowanie sekwencji czynno ś ci dla osi ą gni ę cia odległego celu, rozpoznawanie obrazu,
kształtów i cech przedmiotów. Wi ę kszo ść robotów przemysłowych jest bardzo prymitywna. Trzeba je
wyposa ż y ć we wzrok, słuch, czucie i zdolno ść do planowania działania - to wła ś nie zadania dla AI.
Systemy i j ę zyki : to narz ę dzia dla pracy w AI i jednocze ś nie jej produkty uboczne. Nale żą do nich j ę zyki
programowania i idee u ż ywane w systemach komputerowych, np.: time-sharing czyli technika dzielenia czasu
ma komputerach centralnych, przetwarzanie list i interakcyjne odrobaczanie (debugowanie) s ą ubocznym
wynikiem bada ń nad AI. Takie j ę zyki ogólnego u ż ytku jak LISP, Prolog, jak równie ż wiele j ę zyków
specjalistycznych rozwini ę to dla potrzeb AI.
Zagadnienia filozoficzne AI skupiaj ą si ę wokół rozwa ż a ń teoretycznych i spekulacji, dotycz ą cych mo ż liwo ś ci
budowy inteligentnych maszyn. Niestety, takie spekulacje maj ą wpływ na finansowanie w tej dziedzinie,
chocia ż s ą to rozwa ż ania bezproduktywne i raczej szkodliwe ni ż pomocne. Przyjemnie jest jednak czasem
pospekulowa ć .
1.3 Status AI
Jaki jest obecny status AI? W dziedzinie tej pozostało bardzo du ż o do zrobienia. W poszukiwaniu drogi do
sztucznej inteligencji wyró ż ni ć mo ż na dwie wielkie gał ę zie. Klasyczna, oparta na programowaniu logicznym,
próbuje opisa ć inteligentne działania na poziomie symbolicznym, a wi ę c zrozumie ć funkcjonowanie inteligencji
koncepcyjnie. Podej ś cie takie zostało dogł ę bnie skrytykowane przez wielu autorów (np. H. Dreyfus, What
Computer Still Can't Do, MIT Press 1972-92), porównywano je bardziej do alchemii ni ż nauki. Druga gał ąź ,
modeluj ą ca działanie mózgu, bli ż sza jest symulacjom ni ż rozwa ż aniom logicznym. Takie podej ś cie prowadzi do
uczenia modeli bez mo ż liwo ś ci szczegółowej analizy ich działania w terminach symbolicznych. By ć mo ż e
niepr ę dko poznamy szczegółowe mechanizmy działania mózgu, ale mo ż emy nauczy ć si ę budowa ć podobne
sztuczne struktury. Rozwa ż ania tego typu prowadz ą prosto do gł ę bokich pyta ń filozoficznych, dotycz ą cych
natury rozumienia. Do pyta ń tych wrócimy na krótko przy ko ń cu tego wykładu.
Przyjrzyjmy si ę teraz kilku wi ę kszym projektom w dziedzinie sztucznej inteligencji.
1.1.3. Pi
ą
ta generacja komputerów
Japo ń skie „Ministry of International Trade and Industry” (MITI) ogłosiło w czerwcu 1982 program budowy
„Knowledge Information Processing Systems (KIPS)” prowadzony przez Institute for New Generation of
Computer Technology (ICOT) }, z bud ż etem rz ę du miliardadolarów na 10 lat. Dyrektorem tego programu został
Kazuhiro Fukui, zatrudniono około 40 młodych (<35 lat) ludzi z ró ż nych firm komputerowych. Poprzedni
program, który zainicjowało MITI to: National Super-Speed Computer Project (przy udziale Fujitsu, Hitachi,
NEC, Mitsubishi, Oki, Toshiba) był bardzo udany, pozwolił japo ń czykom wyra ź nie wysun ąć si ę nawet przed
najlepsze firmy ameryka ń skie w dziedzinie konstrukcji superszybkich komputerów. Celem budowy
komputerów 5 generacji było zbudowanie maszyn wykonuj ą cych 0.1 do 1 mld LIPS (logical inferences per
second, czyli logicznych wniosków na sekund ę ). Program oparty został na j ę zyku ProLog (Programming in
Logic), j ę zyku opracowanym w Marsylii i dopracowanym w Edynburgu (w Szkocji). Za cel postawiono sobie
tłumaczenie w oparciu o słownik rz ę du 100000 słów z japo ń skiego na angielski z dokładno ś ci ą 90%,
rozumienie ci ą głej mowy w zakresie 50000 słów z dokładno ś ci ą 95%, dialog z maszyn ą w j ę zyku naturalnym,
stworzenie systemów eksperckich korzystaj ą cych z 10000 reguł wnioskowania. W ramach programu „Pattern
Information Processing National Systems” (PIPS) zmierzano do mo ż liwo ś ci analizy obrazów przy 100000
obrazów w pami ę ci. program ten ł ą czy si ę z „Robotic National Program”, wymagaj ą cym równie ż analizy
obrazów na wielk ą skal ę . W latach 90-tych KIPS maj ą by ć „centralnym narz ę dziem we wszystkich dziedzinach
społecznej działalno ś ci, wł ą czaj ą c w to ekonomi ę , przemysł, kultur ę , ż ycie codzienne”.
Program przedłu ż ono o 2 lata i zako ń czono oficjalnie w grudniu 1994 roku (sprawozdanie z konferencji
ko ń cowej opublikowałem w ComputerWorld 3/1995, 16.01.1995). Chocia ż przyniósł szereg ciekawych
5
Wst ę p do Metod Sztucznej Inteligencji
rezultatów, przyczyniaj ą c si ę do rozwoju metod programowania opartych na logice matematycznej, trudno
uzna ć go za wielki sukces. Wiele z jego zało ż e ń nie zostało zrealizowanych, niektóre istniej ą tylko w fazie
eksperymentalnej. Nie ma w ą tpliwo ś ci, ż e cele powoli zostan ą osi ą gni ę te, by ć mo ż e jednak skupienie si ę na
podej ś ciu symbolicznym, oparcie na Prologu i logice, nie pozwala na osi ą gni ę cie tak ambitnych zmierze ń .
Zrezygnowano z pierwotnych, ambitnych zamierze ń programu, nikt o nich nawet na konferencji ko ń cowej nie
wspominał. Obecne cele projektu nie rozpalaj ą ju ż wyobra ź ni milionów z naukowego punktu widzenia s ą
jednak bardzo ciekawe i bardziej konkretne. W ostatnich dwóch latach swojego istnienia ICOT skupił si ę na
rozpowszechnianiu rezultatów uzyskanych w ramach projektu pi ą tej generacji - jest to ponad tysi ą c prac
naukowych i prawie sto systemów oprogramowania, dost ę pnych za darmo przez sie ć komputerow ą lub na CD-
ROMie rozpowszechnianym przez ICOT. Podj ę to du ż y wysiłek przeniesienia oprogramowania z nietypowego
sprz ę tu komputerowego, cz ęś ciowo zbudowanego w ramach projektu pi ą tej generacji, na typowe stacje robocze
pracuj ą ce w systemie Unix. Bardzo rozwini ę to systemy równoległego i rozproszonego przetwarzania wiedzy
oraz systemy równoległego wnioskowania (PIM, Parallel Inference Machines). Systemy takie znajduj ą
zastosowanie przy konstrukcji rozproszonych baz danych.
Z osi ą gni ęć projektu pi ą tej generacji prezentowanych szczegółowo w czasie konferencji warto wymieni ć :
1) Obiektowo zorientowane j ę zyki do reprezentacji wiedzy: KL1, KLIC i QUIXOTE, pozwalaj ą ce na opis
skomplikowanych fragmentów wiedzy, np. dotycz ą cych reakcji biologicznych czy zagadnie ń prawniczych.
System KLIC działa na stacjach roboczych i komputerach równoległych tworz ą c z opisu wiedzy w j ę zyku KL1
program w j ę zyku C.
2) MGTP, program do dowodzenia twierdze ń działaj ą cy na wieloprocesorowych komputerach w ś rodowisku
PIMOS (Parallel Inference Machine Operating System). Jest to jeden z najciekawszych rezultatów projektu
pi ą tek generacji, gdy ż przy jego pomocy udało si ę rozwi ą za ć pewne zagadnienia matematyczne (udowodni ć
istnienie pewnych kwazigrup). Poniewa ż dowodzenie twierdze ń matematycznych jest bardzo trudne i wielu
matematyków ma w ą tpliwo ś ci, czy w ogóle mo ż liwe, osi ą gni ę cie interesuj ą cych rezultatów w tym zakresie
wzbudziło znaczne zainteresowanie na ś wiecie. System MGTP korzysta z logiki pierwszego rz ę du i na
maszynie o 256 procesorach działa 200 razy szybciej ni ż na pojedynczym procesorze.
3) Bardzo interesuj ą ce rezultaty osi ą gni ę to w genetyce i biologii molekularnej. Systemy przetwarzania wiedzy
staj ą si ę niezb ę dnym narz ę dziem w projekcie mapowania ludzkiego genomu. Na konferencj ę przyjechało kilku
ameryka ń skich naukowców okre ś laj ą cych si ę jako „biolodzy komputerowi,” specjalnie na sesj ę po ś wi ę con ą
systemom reprezentacji wiedzy w genetyce. Metody stosowane w tej dziedzinie nie maj ą jednak wiele
wspólnego z klasycznymi metodami sztucznej inteligencji a raczej bazuj ą na post ę pach w teorii optymalizacji,
alogrytmach genetycznych, teorii gramatyk formalnych i teorii kompilacji.
4) Za najbardziej inteligentne oprogramowanie stworzone w ramach projektu pi ą tek generacji uznano system
Helic-II przeznaczony dla symulacji rozwa ż a ń prawników, dyskusji mi ę dzy prokuratorem i adwokatem,
interpretacji przepisów prawnych, intencji oskar ż onych i symulacji rozumowania s ę dziego.
5) Z praktycznego punktu widzenia bardzo wa ż ne s ą zagadnienia du ż ych, rozproszonych baz danych
multimedialnych, poszukiwanie informacji w takich bazach danych i próba organizacji wiedzy w nich zawartej.
6) Przedstawiono równie ż ciekawe rezultaty dotycz ą ce komputerowo wspomaganego projektowania (CAD) z
wykorzystywaniem wnioskowania logicznego na masowo równoległych komputerach.
W 1992 roku zainaugurowano inny, przewidziany na 10 lat projekt japo ń ski: RWCP, Real World Computing
Partnership. Jego celem jest stworzenie systemów przetwarzania informacji przydatnych w trudny
zagadnieniach praktycznych. Z pi ę ciu centralnych tematów badawczych projektu RWCP jedynie projekty
masowego przetwarzania równoległego nawi ą zuj ą bezpo ś rednio do projektu komputerów pi ą tej generacji,
cz ęś ciowo wi ąż e si ę z nim równie ż integracja symbolicznego i neuronalnego przetwarzania informacji. Nowym
tematem s ą komputery optyczne. Pozostałe tematy badawcze wi ążą si ę bardziej z badaniem funkcji
poznawczych mózgu, modelowaniem sieci neuronowych i reprezentacj ą informacji ź le lub nieprecyzyjnie
okre ś lonej, ni ż z podej ś ciem logicznym. Do osi ą gni ę cia prawdziwej inteligencji potrzebne okazało
si ę bardziej intuicyjne podej ś cie wykorzystuj ą ce mo ż liwo ś ci uczenia si ę systemów zdolnych do adaptacji i to
wła ś nie jest celem RWCP.
Zgłoś jeśli naruszono regulamin