AI1.pdf
(
91 KB
)
Pobierz
Microsoft Word - 02-wstep-ogólny.doc
1
Wst
ę
p do metod AI
1.1 Wprowadzenie
AI, czyli sztuczna inteligencja, ma dług
ą
prehistori
ę
, któr
ą
wywie
ść
mo
ż
na od pi
ę
knej idei Ramona Lull z XIII
wieku. Ten katalo
ń
ski filozof i teolog, franciszkanin, podj
ą
ł prób
ę
stworzenia systemu logicznego,
obejmuj
ą
cego wszystkie gał
ę
zie wiedzy, wydaj
ą
c znakomite na owe czasy dzieło
Ars magna generalis et
ultimata
. Ju
ż
wtedy marzył on o j
ę
zyku, który byłby na tyle precyzyjny i jednoznaczny, by wszelkie zagadnienia
w nim rozstrzyga
ć
. Dopiero pojawienie si
ę
komputerów dało impuls do rozwoju sztucznych j
ę
zyków,
potrzebnych do zapisu programów. Pierwsze prace nad j
ę
zykami algorytmicznymi, czyli j
ę
zykami do zapisu
algorytmów, prowadzono dopiero na pocz
ą
tku lat 50-tych tego wieku. Teoria j
ę
zyków algorytmicznych
rozwini
ę
ta została w pracach wielu informatyków. W praktyce tylko niektóre j
ę
zyki algorytmiczne oparte s
ą
na
dobrze zdefiniowanych podstawach teoretycznych. Starsze j
ę
zyki, takie jak Fortran czy Cobol powstawały w
sposób nieomal spontaniczny.
Gottfried Wilhelm Leibniz, ur. 21.06.1646 w Lipsku, zmarły 14.11.1716 w Hannowerze, pochowany w
nieznanym grobie, mógłby by
ć
patronem informatyków. Studiował w Moguncji, porz
ą
dkował prawo rzymskie,
tam te
ż
sporz
ą
dził plany maszyny licz
ą
cej. W Pary
ż
u pisze o filozofii, teologii, alchemii, matematyce,
dyplomacji i polityce, lecz dla swojej maszyny nie znajduje budowniczego. W 1675 odkrywa rachunek
ró
ż
niczkowy, system dwójkowy, rachunek logiczny, rozwa
ż
a równie
ż
j
ę
zyk do opisu poj
ęć
(
characteristica
universalis
). Z jego inicjatywy powstała Pruska Akademia Nauk. W 1694 za ogromn
ą
sum
ę
24000 talarów
buduje niezbyt doskonał
ą
(z przyczyn mechanicznych) czterodziałaniow
ą
maszyn
ę
licz
ą
c
ą
. W maszynie tej
wprowadził zasady, u
ż
ywane przez setki lat w mechanicznych kalkulatorach. Od 1679 roku Leibnitz rozwa
ż
ał
projekt maszyny działaj
ą
cej w systemie dwójkowym.
W 1712 próbuje zrobi
ć
dla cara Piotra Wielkiego, na którego dworze przebywa przez par
ę
lat, kolejn
ą
maszyn
ę
licz
ą
c
ą
. Ta próba równie
ż
sko
ń
czyła si
ę
niepowodzeniem. Znany był ju
ż
wtedy rachunek na symbolach, chocia
ż
jeszcze w 1570 roku Hieronimus Cardanus udowadniał,
ż
e dla symboli (-a)*(-b) nie równa si
ę
a*b a Ch. Clavius
pisał w 1600 roku:
umysł ludzki nie jest w stanie uchwycić powodów, dla których niewiadome i ich
znaki zachowują się w taki sposób.
W 1680 roku Leibniz pisz
ą
c o „rachunku filozoficznym” wyra
ż
a
nadziej
ę
,
ż
e w przyszło
ś
ci dzi
ę
ki rozwojowi logiki matematycznej zamiast si
ę
spiera
ć
, wystarczy policzy
ć
.
Jak napisał jeden z pionierów w dziedzinie AI „Obszary bada
ń
naukowych powstaj
ą
w wyniku skupienia si
ę
zainteresowania uczonych wokół ró
ż
nych zjawisk. Nauki nie powstaj
ą
w wyniku definicji, ale zostaj
ą
rozpoznane” (A. Newell, 1973). Jako dobrze zdefiniowana dziedzina nauki AI została „rozpoznana” w latach
50-tych. Dwa główne pr
ą
dy naukowe, które si
ę
do tego przyczyniły to rozwój logiki matematycznej i rozwój
teorii oblicze
ń
. Church, Turing i inni matematycy zrozumieli jeszcze przed zbudowaniem komputerów,
ż
e
obliczenia nie dotycz
ą
tylko liczb a raczej przetwarzania symboli. Allan Turing, angielski matematyk, jest
najcz
ęś
ciej wymieniany jako „ojciec” sztucznej inteligencji jako dziedziny naukowej, gdy
ż
jego teoria działania
automatów i jego prace dotycz
ą
ce mo
ż
liwo
ś
ci inteligentnego zachowania si
ę
komputerów stanowi
ą
teoretyczne
podstawy tej dziedziny.
W
ś
ród innych pr
ą
dów, które przyczyniły si
ę
do powstania AI wymieni
ć
nale
ż
y trzy, wszystkie powstałe w 1949
roku. Claude Shannon prowadził rozwa
ż
ania nad przesyłaniem informacji w telekomunikacji i napisał ksi
ąż
k
ę
,
w której po raz pierwszy zdefiniowano ilo
ś
ciowo, co to jest informacja. Norbert Wiener wydał ksi
ąż
k
ę
„Cybernetyka czyli sterowanie i komunikacja w zwierz
ę
ciu i maszynie”, rozpoczynaj
ą
c tym samym szeroki nurt
nauk cybernetycznych. W tym samym roku powstał równie
ż
pierwszy model sieci nerwowej (McCulloch i Pitts)
jako układu elementów logicznych. Chocia
ż
formalnie rzecz bior
ą
c informatyka jest nauk
ą
o przetwarzaniu
informacji metody teorii informacji znajduj
ą
wi
ę
ksze zastosowanie w telekomunikacji ni
ż
przy projektowaniu
komputerów.
Wszystkie te nurty poł
ą
czone zostały wkrótce po zbudowaniu pierwszych komputerów. Inteligencja wymaga
zło
ż
ono
ś
ci, a komputery po raz pierwszy w historii pozwalaj
ą
na budow
ę
dostatecznie zło
ż
onych układów by
zaatakowa
ć
takie zagadnienia jak gra w szachy, dowodzenie twierdze
ń
czy tłumaczenie z jednego j
ę
zyka na
2
Wst
ę
p do Metod Sztucznej Inteligencji
drugi. Bardzo szybko okazało si
ę
,
ż
e nie potrafimy znale
źć
algorytmów na rozwi
ą
zywanie tego typu zagadnie
ń
,
wymagaj
ą
one „inteligencji”. Ludzie wykonuj
ą
pewne czynno
ś
ci nie zdaj
ą
c sobie sprawy z tego, w jaki sposób
to robi
ą
. Zrozumienie tego faktu w latach 50-tych (bynajmniej nie było to wtedy takie oczywiste, wydawało si
ę
wówczas,
ż
e zaprogramowanie bardzo zło
ż
onych zachowa
ń
to tylko kwestia wielko
ś
ci pami
ę
ci i szybko
ś
ci
działania komputera) stanowi pocz
ą
tek AI jako dziedziny nauki. Formalnie jako nauka AI powołana została do
ż
ycia w 1956 roku, podczas jednej z konferencji specjalistycznych, a wi
ę
c powstała na długo przed powstaniem
nazwy „informatyka”. Najlepsza jednozdaniowa definicja AI brzmi nast
ę
puj
ą
co:
Sztuczna inteligencja to dziedzina nauki zajmuj
ą
ca si
ę
rozwi
ą
zywaniem zagadnie
ń
niealgorytmizowalnych przy pomocy komputerów.
AI formalnie stanowi cz
ęść
informatyki, ale bliska jest psychologii i „cognitive science” czyli. „naukom
poznawczym” lub „kognitywnym”, w skład których wchodz
ą
takie dziedziny jak neuropsychologia, teoria
mózgu, psycho i neurolingwistyka, zagadnienia filozofii umysłu. Jednocze
ś
nie rozwijaj
ą
si
ę
zastosowania:
wsz
ę
dzie tam, gdzie nie ma pełnej teorii i wymagane s
ą
inteligentne decyzje (cz
ę
sto próby zgadni
ę
cia bardziej
ni
ż
udowodnienia), w tym w badaniach naukowych, potrzebne s
ą
metody AI. By
ć
mo
ż
e jednym z najbardziej
udanych zastosowa
ń
metod sztucznej inteligencji s
ą
popularne obecnie programy do oblicze
ń
symbolicznych
przy pomocy algebry komputerowej.
Najsilniejsze o
ś
rodki w tej dziedzinie to najlepsze ameryka
ń
skie uczelnie: MIT, Stanford, CalTech, Berkeley. W
Europie uprawia si
ę
AI nie tylko na uniwersytetach (Edynburg w Szkocji i Marsylia w Francji to jedne z
najlepszych o
ś
rodków) lecz równie
ż
w wielkich firmach komputerowych.
AI zajmuje si
ę
projektowaniem inteligentnych systemów, tj. wykazuj
ą
cych cechy podobne do cech
inteligentnego działania człowieka: rozumowania, uczenia si
ę
, rozumienia j
ę
zyka, rozwi
ą
zywania problemów.
Celem głównym jest zrobienie m
ą
drzejszych komputerów. Celem wtórnym (dla ch
ę
tnych na Nobla) jest
zrozumienie czym jest inteligencja. Dla niektórych badaczy stało si
ę
to jednym z głównych celów. Pionier
bada
ń
w dziedzinie AI, Allen Newell, zaproszony został w 1987 roku do prowadzenia serii niezwykle
presti
ż
owych wykładów Williama Jamesa (najsłynniejszego ameryka
ń
skiego psychologa) na Harvard
University. Przy tej okazji wygłosił swoje kredo: psychologia dojrzała ju
ż
do zunifikowanych teorii poznania,
czyli takich teorii, które postuluj
ą
spójny system mechanizmów pozwalaj
ą
cych wyja
ś
ni
ć
wszystkie aspekty
działania umysłu. Teorie poznania odwołuj
ą
si
ę
do modeli komputerowych rozwijanych przez specjalistów od
sztucznej inteligencji. Pogl
ą
d taki w dalszym ci
ą
gu uznawany jest za kontrowersyjny. D
ąż
enia i ambicje
sztucznej inteligencji jako gał
ę
zi nauk formułuje si
ę
w dwóch wersjach:
Wersja słaba AI
mówi,
ż
e komputer pozwala formułowa
ć
i sprawdza
ć
hipotezy dotycz
ą
ce mózgu. W tej wersji
AI nie ma wielu oponentów gdy
ż
jest wiele dowodów na jej oczywist
ą
przydatno
ść
. Nie ma równie
ż
w
ą
tpliwo
ś
ci,
ż
e niektóre metody AI, chocia
ż
odmienne od stosowanych przez układy biologiczne, pozwalaj
ą
na
osi
ą
gni
ę
cie podobnych rezultatów, a wi
ę
c mo
ż
liwa jest komputerowa symulacja inteligentnego działania.
Wersja silna AI
mówi,
ż
e komputer odpowiednio zaprogramowany jest w istotny sposób równowa
ż
ny
mózgowi i mo
ż
e mie
ć
stany poznawcze. Wersja ta jest cz
ę
sto atakowana i tocz
ą
si
ę
nieko
ń
cz
ą
ce si
ę
spory
filozoficzne, czy jest to w ogóle mo
ż
liwe. Nie chodzi tu ju
ż
tylko o symulacje inteligencji ale o osi
ą
gni
ę
cie
„prawdziwej inteligencji”, a wi
ę
c czego
ś
, czego nikt nie potrafi do ko
ń
ca zdefiniowa
ć
.
Takie rozró
ż
nienie pochodzi od specjalistów w zakresie filozofii sztucznej inteligencji. Niezale
ż
nie od wyników
takich dyskusji AI jest dziedzin
ą
, która mo
ż
e zmieni
ć
całkowicie nasz
ś
wiat i z tego wzgl
ę
du jest potencjalnie
bardzo niebezpieczna. Dla badacza jest to dziedzina troch
ę
niewdzi
ę
czna bo trudno jest znale
źć
(tak jak w
fizyce) proste i ładne rozwi
ą
zania, prawa inteligencji. By
ć
mo
ż
e prawa takie nie istniej
ą
, a by
ć
mo
ż
e jakie
ś
s
ą
np. zasada nieoznaczono
ś
ci wi
ążą
ca
ś
cisło
ść
wyniku (rozwi
ą
zania) z jego zło
ż
ono
ś
ci
ą
tj. liczb
ą
operacji
potrzebn
ą
do jego znalezienia.
Według Patrica Winston'a w rozwoju AI wyró
ż
ni
ć
mo
ż
na kilka okresów, które nazywa on nast
ę
puj
ą
co:
Era prehistoryczna
: od maszyny analitycznej Charles'a Babbage (1842) do około 1960 roku, kiedy pojawiły
si
ę
powszechnie dost
ę
pne komputery.
Era romantyczna
, 1960-1965, kiedy przewidywano,
ż
e AI osi
ą
gnie swoje cele w ci
ą
gu 10 lat i odniesiono
sporo pocz
ą
tkowych sukcesów.
3
Wst
ę
p do Metod Sztucznej Inteligencji
Okres ciemno
ś
ci
: 1965-1970, w którym niewiele si
ę
działo, opadł entuzjazm i pojawiły si
ę
głosy bardzo
krytyczne.
Renesans
: 1970-1975, gdy zacz
ę
to budowa
ć
pierwsze systemy doradcze, u
ż
yteczne w praktyce.
Okres partnerstwa
: 1975-1980, gdy do bada
ń
nad AI wprowadzono metod z wielu nauk, np. z lingwistyki,
nauk poznawczych i nauk o mózgu.
Okres komercjalizacji
: 1980-1990, gdy programy AI, a szczególnie systemy doradcze i ich uniwersalne
oprawy (shells), zacz
ę
to szeroko sprzedawa
ć
komercyjnie.
W latach 90. w sztucznej inteligencji zacz
ę
ły si
ę
pojawia
ć
systemy hybrydowe, w których u
ż
ywa si
ę
zarówno
technik symulacyjnych, wyrastaj
ą
cych z bada
ń
nad sieciami neuronowymi, jak i inspiracji ewolucyjnych oraz
ró
ż
nych form logiki, pozwalaj
ą
cych na radzenie sobie z informacj
ą
niepewn
ą
. Pojawiły si
ę
równie
ż
próby
rozwi
ą
zywania problemów wymagaj
ą
cych inteligencji na drodze symulacji du
ż
ej liczby prostych organizmów,
mieszcz
ą
ce si
ę
w nurcie „sztucznego
ż
ycia” (artificial life). Psycholodzy (np. J.J. Gibson w 1986 roku)
zaproponowali nowe podej
ś
cie, nazwane „inteligencj
ą
behavioraln
ą
”, w ramach którego usiłuje si
ę
wyewoluowa
ć
zachowania inteligentne dzi
ę
ki oddziaływaniom z naturalnym
ś
rodowiskiem. Podej
ś
cie to zrywa
z rozpowszechnionym paradygmatem jawnej reprezentacji
ś
wiata i wiedzy wewn
ą
trz systemu. Robotycy w
połowie lat 90. zacz
ę
li robi
ć
eksperymenty z takim podej
ś
ciem. Wprowadzono te
ż
„agentów programowych”,
programy wykazuj
ą
ce zło
ż
one, autonomiczne zachowanie w sztucznym
ś
rodowisku (np. w Interencie).
1.2 Kluczowe zagadnienia AI
Siła nap
ę
dow
ą
sztucznej inteligencji s
ą
liczne zastosowania programów komputerowych u
ż
ywanych do
rozwi
ą
zywania zagadnie
ń
, które nie s
ą
efektywnie algorytmizowalne. Nale
żą
do nich nast
ę
puj
ą
ce zagadnienia:
Rozwi
ą
zywanie problemów
: gry i zagadki logiczne, techniki przewidywania w ograniczonych przestrzeniach
zachowa
ń
. Główne metody to szukanie i redukcja problemów. Mistrzowskie rezultaty osi
ą
gni
ę
to w warcabach,
szachach i wielu innych grach planszowych, ale niektóry gry (np.
go
) wymagaj
ą
rozwini
ę
cia bardziej
wyrafinowanych technik. Obliczenia symboliczne przy pomocy programów algebry komputerowej nale
żą
równie
ż
do tej kategorii.
Rozumowanie logiczne
: dowodzenie twierdze
ń
przez manipulowanie faktami z bazy danych zapisanych jako
dyskretne struktury danych. Chocia
ż
mo
ż
na tu stosowa
ć
metody
ś
cisłe szczególnie interesuj
ą
ce s
ą
problemy
du
ż
e, w których trzeba si
ę
skupi
ć
na istotnych faktach i hipotezach, st
ą
d zainteresowanie AI. Projektowanie
układów logicznych cz
ę
sto zawiera elementy AI.
J
ę
zyk naturalny
: rozumienie j
ę
zyka, odpowiedzi na pytania w j
ę
zyku naturalnym, budowa baz danych z
tekstów np. ksi
ąż
ek, tłumaczenie maszynowe, rozumienie mowy mówionej. Główne problemy to wiedza
kontekstowa i rola oczekiwa
ń
w interpretacji znacze
ń
.
Programowanie
: tj. programowanie automatyczne lub autoprogramowanie, opis algorytmów przy pomocy
zwykłego j
ę
zyka, nie tylko by pisa
ć
programy automatycznie ale te
ż
by modyfikowa
ć
swój własny program.
Szczególnie programowanie dost
ę
pu do baz danych (programi
ś
ci s
ą
dobrze opłacani, st
ą
d próby ich
wyeliminowania), na tyle proste by było zrozumiałe dla menagerów i komputerowych laików jest szybko
rozwijaj
ą
c
ą
si
ę
dziedzin
ą
wykorzystuj
ą
c
ą
idee AI.
Uczenie si
ę
: jedno z najwa
ż
niejszych inteligentnych zachowa
ń
(z rzadka wykazywane przez niektórych
studentów). Jest to zagadnienie bardzo trudne i mało rozumiane. Uczenie si
ę
na przykładach, przez analogi
ę
, w
klasycznych systemach AI prawie nie wyst
ę
puje. Uczenie maszynowe jest do
ść
ezoterycznym, lecz bardzo
wa
ż
nym działem AI.
Ekspertyza
: systemy doradcze lub eksperckie, tworzone przez „in
ż
ynierów wiedzy” tj. tych, którzy znaj
ą
si
ę
na
reprezentacji (przechowywaniu) wiedzy, udost
ę
pniaj
ą
ce t
ę
wiedz
ę
w czasie konsultacji tj. dialogu z systemem.
Systemy eksperckie powinny te
ż
wyja
ś
ni
ć
swoje rozumowanie człowiekowi. Najpierw konieczna jest
„akwizycja wiedzy”, jest to du
ż
y problem bo wi
ę
kszo
ść
wiedzy nie jest
ś
wiadoma, wynika z do
ś
wiadczenia.
Gotowy system powinien pozwoli
ć
na: wyja
ś
nienie problemu, wykonanie testów, zadawanie pyta
ń
i
proponowanie rozwi
ą
za
ń
, uzasadnienie przyj
ę
tych rozwi
ą
za
ń
i ocen
ę
ich wiarygodno
ś
ci. O systemach
4
Wst
ę
p do Metod Sztucznej Inteligencji
ekspertowych du
ż
o si
ę
mówi i pisze, powstało sporo drobnych systemów do ró
ż
nych zastosowa
ń
, sporo
„powłok”, czyli programów ułatwiaj
ą
cych tworzenie systemów eksperckich. W codziennym u
ż
yciu jest jednak
mało du
ż
ych systemów eksperckich, gdy
ż
du
ż
e systemy s
ą
mało stabilne i powolne. Wiedza eksperta dotyczy
w
ą
skiej i dobrze zdefiniowanej dziedziny, du
ż
o trudniej jest podrobi
ć
zdrowy rozs
ą
dek.
Robotyka i widzenie komputerowe:
w tej dziedzinie tworzy si
ę
programy manipuluj
ą
ce ko
ń
czynami robotów,
optymalizuj
ą
ce ruchy i planowanie sekwencji czynno
ś
ci dla osi
ą
gni
ę
cia odległego celu, rozpoznawanie obrazu,
kształtów i cech przedmiotów. Wi
ę
kszo
ść
robotów przemysłowych jest bardzo prymitywna. Trzeba je
wyposa
ż
y
ć
we wzrok, słuch, czucie i zdolno
ść
do planowania działania - to wła
ś
nie zadania dla AI.
Systemy i j
ę
zyki
: to narz
ę
dzia dla pracy w AI i jednocze
ś
nie jej produkty uboczne. Nale
żą
do nich j
ę
zyki
programowania i idee u
ż
ywane w systemach komputerowych, np.: time-sharing czyli technika dzielenia czasu
ma komputerach centralnych, przetwarzanie list i interakcyjne odrobaczanie (debugowanie) s
ą
ubocznym
wynikiem bada
ń
nad AI. Takie j
ę
zyki ogólnego u
ż
ytku jak LISP, Prolog, jak równie
ż
wiele j
ę
zyków
specjalistycznych rozwini
ę
to dla potrzeb AI.
Zagadnienia filozoficzne
AI skupiaj
ą
si
ę
wokół rozwa
ż
a
ń
teoretycznych i spekulacji, dotycz
ą
cych mo
ż
liwo
ś
ci
budowy inteligentnych maszyn. Niestety, takie spekulacje maj
ą
wpływ na finansowanie w tej dziedzinie,
chocia
ż
s
ą
to rozwa
ż
ania bezproduktywne i raczej szkodliwe ni
ż
pomocne. Przyjemnie jest jednak czasem
pospekulowa
ć
.
1.3 Status AI
Jaki jest obecny status AI? W dziedzinie tej pozostało bardzo du
ż
o do zrobienia. W poszukiwaniu drogi do
sztucznej inteligencji wyró
ż
ni
ć
mo
ż
na dwie wielkie gał
ę
zie. Klasyczna, oparta na programowaniu logicznym,
próbuje opisa
ć
inteligentne działania na poziomie symbolicznym, a wi
ę
c zrozumie
ć
funkcjonowanie inteligencji
koncepcyjnie. Podej
ś
cie takie zostało dogł
ę
bnie skrytykowane przez wielu autorów (np. H. Dreyfus, What
Computer Still Can't Do, MIT Press 1972-92), porównywano je bardziej do alchemii ni
ż
nauki. Druga gał
ąź
,
modeluj
ą
ca działanie mózgu, bli
ż
sza jest symulacjom ni
ż
rozwa
ż
aniom logicznym. Takie podej
ś
cie prowadzi do
uczenia modeli bez mo
ż
liwo
ś
ci szczegółowej analizy ich działania w terminach symbolicznych. By
ć
mo
ż
e
niepr
ę
dko poznamy szczegółowe mechanizmy działania mózgu, ale mo
ż
emy nauczy
ć
si
ę
budowa
ć
podobne
sztuczne struktury. Rozwa
ż
ania tego typu prowadz
ą
prosto do gł
ę
bokich pyta
ń
filozoficznych, dotycz
ą
cych
natury rozumienia. Do pyta
ń
tych wrócimy na krótko przy ko
ń
cu tego wykładu.
Przyjrzyjmy si
ę
teraz kilku wi
ę
kszym projektom w dziedzinie sztucznej inteligencji.
1.1.3. Pi
ą
ta generacja komputerów
Japo
ń
skie „Ministry of International Trade and Industry” (MITI) ogłosiło w czerwcu 1982 program budowy
„Knowledge Information Processing Systems (KIPS)” prowadzony przez
Institute for New Generation of
Computer Technology (ICOT)
}, z bud
ż
etem rz
ę
du miliardadolarów na 10 lat. Dyrektorem tego programu został
Kazuhiro Fukui, zatrudniono około 40 młodych (<35 lat) ludzi z ró
ż
nych firm komputerowych. Poprzedni
program, który zainicjowało MITI to: National Super-Speed Computer Project (przy udziale Fujitsu, Hitachi,
NEC, Mitsubishi, Oki, Toshiba) był bardzo udany, pozwolił japo
ń
czykom wyra
ź
nie wysun
ąć
si
ę
nawet przed
najlepsze firmy ameryka
ń
skie w dziedzinie konstrukcji superszybkich komputerów. Celem budowy
komputerów 5 generacji było zbudowanie maszyn wykonuj
ą
cych 0.1 do 1 mld LIPS (logical inferences per
second, czyli logicznych wniosków na sekund
ę
). Program oparty został na j
ę
zyku ProLog (Programming in
Logic), j
ę
zyku opracowanym w Marsylii i dopracowanym w Edynburgu (w Szkocji). Za cel postawiono sobie
tłumaczenie w oparciu o słownik rz
ę
du 100000 słów z japo
ń
skiego na angielski z dokładno
ś
ci
ą
90%,
rozumienie ci
ą
głej mowy w zakresie 50000 słów z dokładno
ś
ci
ą
95%, dialog z maszyn
ą
w j
ę
zyku naturalnym,
stworzenie systemów eksperckich korzystaj
ą
cych z 10000 reguł wnioskowania. W ramach programu „Pattern
Information Processing National Systems” (PIPS) zmierzano do mo
ż
liwo
ś
ci analizy obrazów przy 100000
obrazów w pami
ę
ci. program ten ł
ą
czy si
ę
z „Robotic National Program”, wymagaj
ą
cym równie
ż
analizy
obrazów na wielk
ą
skal
ę
. W latach 90-tych KIPS maj
ą
by
ć
„centralnym narz
ę
dziem we wszystkich dziedzinach
społecznej działalno
ś
ci, wł
ą
czaj
ą
c w to ekonomi
ę
, przemysł, kultur
ę
,
ż
ycie codzienne”.
Program przedłu
ż
ono o 2 lata i zako
ń
czono oficjalnie w grudniu 1994 roku (sprawozdanie z konferencji
ko
ń
cowej opublikowałem w
ComputerWorld
3/1995, 16.01.1995). Chocia
ż
przyniósł szereg ciekawych
5
Wst
ę
p do Metod Sztucznej Inteligencji
rezultatów, przyczyniaj
ą
c si
ę
do rozwoju metod programowania opartych na logice matematycznej, trudno
uzna
ć
go za wielki sukces. Wiele z jego zało
ż
e
ń
nie zostało zrealizowanych, niektóre istniej
ą
tylko w fazie
eksperymentalnej. Nie ma w
ą
tpliwo
ś
ci,
ż
e cele powoli zostan
ą
osi
ą
gni
ę
te, by
ć
mo
ż
e jednak skupienie si
ę
na
podej
ś
ciu symbolicznym, oparcie na Prologu i logice, nie pozwala na osi
ą
gni
ę
cie tak ambitnych zmierze
ń
.
Zrezygnowano z pierwotnych, ambitnych zamierze
ń
programu, nikt o nich nawet na konferencji ko
ń
cowej nie
wspominał. Obecne cele projektu nie rozpalaj
ą
ju
ż
wyobra
ź
ni milionów z naukowego punktu widzenia s
ą
jednak bardzo ciekawe i bardziej konkretne. W ostatnich dwóch latach swojego istnienia ICOT skupił si
ę
na
rozpowszechnianiu rezultatów uzyskanych w ramach projektu pi
ą
tej generacji - jest to ponad tysi
ą
c prac
naukowych i prawie sto systemów oprogramowania, dost
ę
pnych za darmo przez sie
ć
komputerow
ą
lub na CD-
ROMie rozpowszechnianym przez ICOT. Podj
ę
to du
ż
y wysiłek przeniesienia oprogramowania z nietypowego
sprz
ę
tu komputerowego, cz
ęś
ciowo zbudowanego w ramach projektu pi
ą
tej generacji, na typowe stacje robocze
pracuj
ą
ce w systemie Unix. Bardzo rozwini
ę
to systemy równoległego i rozproszonego przetwarzania wiedzy
oraz systemy równoległego wnioskowania (PIM, Parallel Inference Machines). Systemy takie znajduj
ą
zastosowanie przy konstrukcji rozproszonych baz danych.
Z osi
ą
gni
ęć
projektu pi
ą
tej generacji prezentowanych szczegółowo w czasie konferencji warto wymieni
ć
:
1) Obiektowo zorientowane j
ę
zyki do reprezentacji wiedzy: KL1, KLIC i QUIXOTE, pozwalaj
ą
ce na opis
skomplikowanych fragmentów wiedzy, np. dotycz
ą
cych reakcji biologicznych czy zagadnie
ń
prawniczych.
System KLIC działa na stacjach roboczych i komputerach równoległych tworz
ą
c z opisu wiedzy w j
ę
zyku KL1
program w j
ę
zyku C.
2) MGTP, program do dowodzenia twierdze
ń
działaj
ą
cy na wieloprocesorowych komputerach w
ś
rodowisku
PIMOS (Parallel Inference Machine Operating System). Jest to jeden z najciekawszych rezultatów projektu
pi
ą
tek generacji, gdy
ż
przy jego pomocy udało si
ę
rozwi
ą
za
ć
pewne zagadnienia matematyczne (udowodni
ć
istnienie pewnych kwazigrup). Poniewa
ż
dowodzenie twierdze
ń
matematycznych jest bardzo trudne i wielu
matematyków ma w
ą
tpliwo
ś
ci, czy w ogóle mo
ż
liwe, osi
ą
gni
ę
cie interesuj
ą
cych rezultatów w tym zakresie
wzbudziło znaczne zainteresowanie na
ś
wiecie. System MGTP korzysta z logiki pierwszego rz
ę
du i na
maszynie o 256 procesorach działa 200 razy szybciej ni
ż
na pojedynczym procesorze.
3) Bardzo interesuj
ą
ce rezultaty osi
ą
gni
ę
to w genetyce i biologii molekularnej. Systemy przetwarzania wiedzy
staj
ą
si
ę
niezb
ę
dnym narz
ę
dziem w projekcie mapowania ludzkiego genomu. Na konferencj
ę
przyjechało kilku
ameryka
ń
skich naukowców okre
ś
laj
ą
cych si
ę
jako „biolodzy komputerowi,” specjalnie na sesj
ę
po
ś
wi
ę
con
ą
systemom reprezentacji wiedzy w genetyce. Metody stosowane w tej dziedzinie nie maj
ą
jednak wiele
wspólnego z klasycznymi metodami sztucznej inteligencji a raczej bazuj
ą
na post
ę
pach w teorii optymalizacji,
alogrytmach genetycznych, teorii gramatyk formalnych i teorii kompilacji.
4) Za najbardziej inteligentne oprogramowanie stworzone w ramach projektu pi
ą
tek generacji uznano system
Helic-II przeznaczony dla symulacji rozwa
ż
a
ń
prawników, dyskusji mi
ę
dzy prokuratorem i adwokatem,
interpretacji przepisów prawnych, intencji oskar
ż
onych i symulacji rozumowania s
ę
dziego.
5) Z praktycznego punktu widzenia bardzo wa
ż
ne s
ą
zagadnienia du
ż
ych, rozproszonych baz danych
multimedialnych, poszukiwanie informacji w takich bazach danych i próba organizacji wiedzy w nich zawartej.
6) Przedstawiono równie
ż
ciekawe rezultaty dotycz
ą
ce komputerowo wspomaganego projektowania (CAD) z
wykorzystywaniem wnioskowania logicznego na masowo równoległych komputerach.
W 1992 roku zainaugurowano inny, przewidziany na 10 lat projekt japo
ń
ski: RWCP, Real World Computing
Partnership. Jego celem jest stworzenie systemów przetwarzania informacji przydatnych w trudny
zagadnieniach praktycznych. Z pi
ę
ciu centralnych tematów badawczych projektu RWCP jedynie projekty
masowego przetwarzania równoległego nawi
ą
zuj
ą
bezpo
ś
rednio do projektu komputerów pi
ą
tej generacji,
cz
ęś
ciowo wi
ąż
e si
ę
z nim równie
ż
integracja symbolicznego i neuronalnego przetwarzania informacji. Nowym
tematem s
ą
komputery optyczne. Pozostałe tematy badawcze wi
ążą
si
ę
bardziej z badaniem funkcji
poznawczych mózgu, modelowaniem sieci neuronowych i reprezentacj
ą
informacji
ź
le lub nieprecyzyjnie
okre
ś
lonej, ni
ż
z podej
ś
ciem logicznym. Do osi
ą
gni
ę
cia prawdziwej inteligencji potrzebne okazało
si
ę
bardziej intuicyjne podej
ś
cie wykorzystuj
ą
ce mo
ż
liwo
ś
ci uczenia si
ę
systemów zdolnych do adaptacji i to
wła
ś
nie jest celem RWCP.
Plik z chomika:
lopolo33
Inne pliki z tego folderu:
AI5.pdf
(33 KB)
Wykład wstęp do Sztucznej Inteligencji.URL
(0 KB)
Wstęp do Metod Sztucznej Inteligencji [pdf].URL
(0 KB)
Wstęp do AI - 4.mp3
(12395 KB)
Wstęp do AI - 3.mp3
(7200 KB)
Inne foldery tego chomika:
artykuły
CZY JESTEŚMY AUTOMATAMI - MÓZGI, WOLNA WOLA I ODPOWIEDZIALNOŚĆ
Czym jest kognitywistyka
Duch i dusza, czyli prehistoria kognitywistyki
Folklor umysłu
Zgłoś jeśli
naruszono regulamin