A mesterséges intelligencia az ókorban gyökerezik, de különösen a XX . Század második felében felszállt, és lehetővé válik a történelmi olvasat.
A mesterséges intelligencia (vagy mesterséges intelligencia) első történelmi mérföldkövei a Protohistory-ra nyúlnak vissza , ahol a mítoszok, legendák és pletykák mesterséges mesterségekből származó lényeket intelligenciával vagy lelkiismerettel ruházzák fel; amint Pamela McCorduck írja, a mesterséges intelligencia "a régi óhajjal, hogy Istent játsszák" kezdődik.
A mai értelemben vett mesterséges intelligenciát a klasszikus filozófusok kezdeményezték, köztük Gottfried Wilhelm Leibniz a calculus ratiocinatorjával , akik az emberi gondolkodás folyamatát a szimbólumok mechanikus manipulálásaként próbálják leírni, anélkül, hogy példányokat akarnának készíteni. Ez a gondolkodás a programozható számítógép feltalálásával valósult meg az 1940-es években. Ez az eszköz és a mögöttes ötletek inspirálták azokat a tudósokat, akik komolyan elkezdték megvitatni az "elektronikus agy" megvalósíthatóságát.
A mesterséges intelligencia kutatása valóban a Dartmouth College campusán , 1956 nyarán tartott konferencia után kezdődött . Ezt a találkozót követően néhány résztvevőt a mesterséges intelligencia kutatásába fektetnek. Egyes utópisták azt jósolták, hogy egy intelligens gép, mint egy ember, kevesebb mint egy generáció alatt létezik, majd dollármilliókat fektettek be ennek az előrejelzésnek a megerősítésére. Idővel úgy tűnt, hogy az e bejelentésben rejlő nehézségeket durván alábecsülték. 1973-ban a tudósok, különösen James Lighthill kritikájára és a parlamenti képviselők folyamatos nyomására válaszul a brit és az amerikai kormány útmutatás nélkül leállította a mesterséges intelligencia kutatásának támogatását. Hét évvel később, a Japán Kabinet prófétai kezdeményezését követően a kormányok és az ipar újra befektetett a mesterséges intelligenciába, az 1980-as évek végén azonban a kiábrándult politikai döntéshozók ismét kivonták pénzeszközeiket. Ezért azt mondhatjuk, hogy ez a fűrészfog-ciklus, ahol a fagyás és az olvadás időszaka váltakozik, jellemzi a mesterséges intelligencia támogatását. De mindig maradnak idealisták merész jóslatokhoz.
Egyébként a hullámvölgyek, valamint a technokraták és a befektetők vonakodása ellenére a mesterséges intelligencia halad. Az 1970-ben elérhetetlennek hitt problémákat megoldották, és megoldásaikat kereskedelemben terjesztették. Ez az algoritmusok fejlődésének is köszönhető, amelyek lehetővé tették olyan megoldások programozását, amelyeket korábban csak heurisztikával lehetett elérni. Azonban a kutatók első generációjának optimista jóslatával ellentétben még nem építettek erős mesterséges intelligenciával rendelkező gépet . "Csak rövid távon pillanthatunk be" - ismerte el Alan Turing egy híres 1950-es cikkében, amely a gondolkodó gépek modern kutatását vetíti előre. „De - teszi hozzá - nem tudjuk elképzelni a még hátralévő munka mértékét”.
Kezdetben két megközelítés áll egymással szemben: a logikus vagy szimbolikus megközelítés , amelynek célja a gondolkodás "egyetemes törvényeinek" újbóli létrehozása és Turing gépének koncepciója ihleti , valamint a neuronális megközelítés, amelyet Frank Rosenblatt testesít meg , aki megpróbálja utánozni a biológiai folyamatok az agyban. Ha a logikai megközelítés , Russell , Frege , a Vienne kör , a matematikai logika stb. Munkájából ihletve , nyer a DARPA-nál , a mesterséges intelligencia kutatását finanszírozó fő testületnél, a neurális szemlélet az 1980-as években újra felszínre kerül , inspirálva a kapcsolódási folyamatot .
Mivel a mesterséges intelligencia elsősorban az Egyesült Államokban fejlődött ki, ez a cikk elsősorban erre az országra fog koncentrálni.
McCorduck 2004 írta 2004-ben, hogy „a mesterséges intelligencia egyik vagy másik olyan ötlet, amely elterjedt az egész történelem a nyugati gondolkodás, egy álom nagy szüksége lenne a megvalósulásra,” a mítoszok, legendák, történetek, spekulációk és antropomorf automaták a emberiség.
A görög mitológiában jelen vannak a mechanikus emberek és a mesterséges lények , így Hephaestus , Pygmalion és Galatea aranyrobotjai , míg a középkorban misztikus titkokról vagy alkimista technikákról terjednek pletykák a szellemek megidézésére , mint például a Geber Takwin , a homunculusok a Paracelsus és a gólem a Maharal . A XIX -én században , az ötlet a mesterséges férfiak és gondolkodó gépek testesül széppróza, mint Frankenstein a Mary Shelley vagy RUR (Rossum Universal Robots) által Karel Čapek , és a spekulatív tesztelés Darwin között Machines által Samuel Butler . Az AI fontos része a tudományos fantasztikumnak .
Az antropomorf robotok közül minden civilizáció kézművesei reálisak voltak, köztük Yan Shi, aki Ji Man , az alexandriai hős , al-Jazari és Wolfgang von Kempelen mellett dolgozott . A legrégebbi automaták az ókori Egyiptom és az ókori Görögország szent szobrai . A hívők meg voltak győződve arról, hogy a kézművesek valódi szellemekkel, bölcsességre és érzelmekre képesek átitatni ezeket a szobrokat - Hermes Trismegistus azt írta, hogy "az istenek valódi természetének felfedezésével az ember képes volt reprodukálni azt". A PLC Vaucanson a XVIII th század képviselő kacsa egy feltűnő végrehajtása mesterséges ellátni bizonyos funkciók az élet, míg a török sakkozó a Johann Wolfgang von Kempelen volt csalás.
A mesterséges intelligencia azon a feltételezésen alapul, hogy az emberi gondolkodási folyamat gépesíthető. A mechanikus - vagy "formális" - érvelés tanulmányozása hosszú múltra tekint vissza. Kínai , indiai és görög filozófusok mind a formális dedukció strukturált módszereit dolgozták ki Kr. U. Első évezredében . Kr. E. Elképzeléseiket az évszázadok során olyan filozófusok dolgozták ki, mint Arisztotelész (aki formális elemzést adott a szillogizmusról ), Euklidész (amelynek elemei formális gondolkodási modellek), Al-Khwarizmi (melyik tartozik az algebrának, és akinek a neve " algoritmust " ad) Európai skolasztikus filozófusok , mint William Ockham és Duns Scotus .
A mallorcai filozófus, Raymond Lulle (1232–1315) számos logikai gépet tervezett, amelyek a tudás logikai eszközökkel történő előállításának szenteltek; Lull leírja a gép, mint a mechanikus egységek, amelyek egyesítik az alapvető és vitathatatlan igazságok révén egyszerű logikai műveletek által generált a gép mechanizmusok révén, oly módon, hogy minden tudást lehetséges. Llull munkája nagy hatással van Leibnizre , aki továbbfejlesztette elképzeléseit.
A XVII -én században , Gottfried Wilhelm Leibniz , Thomas Hobbes és Descartes megvizsgálta annak lehetőségét, hogy bármely racionális gondolkodás, hogy a rendszeres, mint az algebra vagy a geometria. A Leviatán a Hobbes , ott van a híres mondat: „az oka, [...] semmi más, ami kiszámítani.” Leibniz az érvelés univerzális nyelvét képzelte el (sa characteristica universalis ), amely az érvelést és a számítást egyenlővé teszi, így „nincs több szükség vitára két filozófus, mint két könyvelő között. Mert csak annyit kell tenniük, hogy a kezükbe veszik a ceruzát és a palát, és azt mondják egymásnak (ha szükséges, egy baráttal tanúként): Számoljunk ki! ". Ezek a filozófusok elkezdték megfogalmazni egy fizikai szimbólumrendszer feltételezéseit , amelyek később az AI kutatás egyik dogmájává válnak.
A XX . Században a matematikai logika tanulmányozása nyújtotta a legtöbb előrelépést, amelyek megalapozott mesterséges intelligenciát jelentettek. A lefektette az alkotások, mint például a gondolkodás törvényeinek által Boole és Ideography által Frege . A Frege rendszerére építve Russell és Whitehead a matematika alapjainak hivatalos kezelését mutatták be 1913-ban készített Principia Mathematica című remekművükben . Russell sikerétől ihletve David Hilbert felhívta az 1920-as és 1930-as évek matematikusait, hogy válaszoljanak erre az alapvető kérdésre: "Lehet-e matematikai érvelés teljesen formalizált? " „Mi válaszol a kérdésre a hiányos tételek a Gödel , a gép a Turing és a lambda-kalkulus az egyház . Válaszuk több szempontból is meglepő volt. Először bebizonyították, hogy a matematikai logika valójában korlátokat tartalmaz.
De munkájuk (és ami még fontosabb az AI számára) azt sugallta, hogy ilyen körülmények között a matematikai érvelés bármilyen formája mechanizálható. Az egyházi tézis egy olyan mechanikus eszközzel foglalkozott, amely olyan egyszerű szimbólumokkal manipulált, mint a 0 és az 1, a matematikai dedukció bármilyen elképzelhető folyamatát utánozhatta. Ez a kulcsfontosságú fogalom a Turing-gépbe fordult - egy egyszerű elméleti konstrukció, amely megragadta az elvont szimbólummanipuláció lényegét. Ez a találmány egy maroknyi tudóst inspirált, akik aztán elkezdték megvitatni a gondolkodó gépek lehetőségét.
A számológépek az ókorban jelentek meg, és sok matematikus és mérnök, köztük Leibniz fejlesztette a történelem során . Elején XIX th században , Charles Babbage tervezett programozható számológép (a Analytical Engine ) anélkül, hogy valaha építeni. Ezt követően Ada Lovelace feltételezi, hogy a gép "minden összetettségű és hosszúságú kidolgozott és tudományos zeneművet képes összeállítani".
Az első modern számítógépek a második világháború hatalmas gépi kriptanalízise (mint például a Z3 , az ENIAC és a Colossus ), amelyeket az utóbbi kettő tekintetében Alan Turing által lefektetett és John von Neumann által kifejlesztett elméleti alapokból terveztek .
Megjegyzés a cikk szakaszaihoz .
Az 1940-es és 1950-es években egy maroknyi tudós sokféle területről (matematika, pszichológia, mérnöki tudományok, közgazdaságtan és politológia) kezdett tárgyalni egy mesterséges agy létrehozásának lehetőségéről. A mesterséges intelligencia kutatásának ezt a területét tudományos fegyelemként alapították 1956-ban.
A gondolkodó gépek területén végzett legkorábbi kutatásokat az 1930-as évek végétől az 1950-es évek elejéig fokozatosan elterjedt ötletek konvergenciája inspirálta. A legújabb neurológiai kutatások kimutatták, hogy az agy a neuronok elektromos hálózata, amely impulzusokat küldött mind -semmi. A kibernetika a Norbert Wiener leírt ellenőrzési és stabilitását energiaellátó rendszerek. Az információelmélet a Claude Shannon leírja a digitális jeleket (azaz a jeleket mindent vagy semmit). Az elmélet kiszámítása az Alan Turing megmutatta, hogy bármilyen formában számítás is képviselteti digitálisan. Ezen elképzelések szoros kapcsolata egy mesterséges agy felépítésének lehetőségét sugallja .
Ez például a munka ebben a szellemben robotok, mint Bristol Turtles of William Gray Walter és a Szörnyeteg Johns Hopkins (in) . Ezek a gépek nem használnak számítógépet, digitális elektronikát vagy szimbolikus érvelést; teljesen analóg áramkörök vezérelték őket.
Walter Pitts és Warren McCulloch ideális mesterséges neurális hálózatokat elemeztek, és megmutatták, hogyan tudnak egyszerű logikai műveleteket végrehajtani. Elsőként arról beszéltek, amit a későbbi kutatók ideghálózatnak fognak nevezni . Az egyik diák, akit Pitts és McCulloch ihletett, Marvin Minsky , akkor 24 éves diák volt. 1951-ben (Dean Edmonds-szal) megépítette az első ideghálózati gépet, a SNARC-ot . Minsky a következő ötven év egyik legfontosabb AI-vezetőjévé és újítójává válik.
1951-ben, a Ferranti Mark I gép a University of Manchester , Christopher Strachey írt dáma programot és Dietrich Prinz írt sakk programot. Arthur Samuel dámajátéka , amelyet az 1950-es évek közepén és az 1960-as évek elején fejlesztettek ki, végül elegendő szintet szerzett egy jó amatőr kihívására. Valójában a játékokban található mesterséges intelligencia viszonyítási alapként szolgál a mesterséges intelligencia fejlődéséhez.
1950-ben Alan Turing egy emlékezetes cikket tett közzé , amelyben spekulált a gépek valódi intelligenciával történő létrehozásának lehetőségére. Észreveszi, hogy nehéz meghatározni az "intelligenciát", és elképzeli híres Turing-tesztjét . Ha egy gép képes olyan beszélgetést folytatni ( távbeszélőn keresztül ), amelyet nem lehet megkülönböztetni az emberrel folytatott beszélgetéstől, akkor a gépet "intelligensnek" lehet nevezni. A probléma ezen egyszerűsített változata lehetővé tette Turing számára, hogy meggyőző érvet tegyen arra, hogy egy "gondolkodó gép" legalább elfogadható , ez a cikk megválaszolja a javaslat minden klasszikus kifogását. A Turing-teszt volt az első komoly hipotézis a mesterséges intelligencia filozófiájának területén.
Amikor az 1950-es évek közepén lehetségessé vált a számítógépekhez való hozzáférés , a kezdetben kevesen tudósok megértették, hogy a számokkal manipulálni képes gép képes a szimbólumokkal is manipulálni, és hogy a szimbólumok ezen manipulációja felhasználható. Az emberi gondolkodás lényege. Ez az első gondolkodó gépek kifejlesztéséhez vezetett.
1955-ben Allen Newell és a leendő közgazdasági Nobel-díjas , Herbert Simon Cliff Shaw segítségével létrehozta a „ logikai teoretikust ”. A program végül bizonyítani 38. Az első 52 tételt a Russell és Whitehead Principia Mathematica , és még akkor is megtalálta új és elegáns bizonyítékokat. Simon azt mondja, hogy "megoldották a tiszteletreméltó elme-test problémát , elmagyarázva, hogy az anyagból összeállított rendszernek miként lehetnek az elme tulajdonságai". Ez az egyik olyan filozófiai mozgalom egyik megfogalmazása, amelyet John Searle később " erős mesterséges intelligenciának " nevezne : az emberekhez hasonlóan a gépeknek is van eszük.
1949-ben Warren Weaver közzétette a természetes nyelvek automatikus fordításáról szóló memorandumát, amely látomásos és optimista a mesterséges intelligencia ezen alapvető problémájának jövőjét illetően.
Az 1956-os Dartmouth konferenciát Marvin Minsky , John McCarthy és két vezető tudós szervezte : Claude Shannon és Nathan Rochester (in) az IBM-hez . A konferencia tézise magában foglalta ezt az állítást: "A tanulás minden aspektusa vagy az intelligencia bármely más jellemzője olyan pontosan leírható, hogy egy gép megtervezhető annak szimulálására". A résztvevők között volt Ray Solomonoff , Oliver Selfridge , Trenchard More , Arthur Samuel , Allen Newell és Herbert Simon , akik mind fontos programokat hoznának létre az AI kutatás korai évtizedeiben. A konferencián Newell és Simon elindította az " elméleti logikát " ( logikai teoretikus ), és McCarthy meggyőzte a hallgatóságot, hogy fogadja el a "Mesterséges intelligencia" kifejezést a terület címének. Az 1956-os Dartmouth-konferencia volt a kulcsfontosságú pillanat, amikor a mesterséges intelligenciát önmagában hívták fel, meghatározta céljait, megvalósította korai sikereit és összehozta fontos szereplőit. Ezt a konferenciát a nyugati világban széles körben tekintik a mesterséges intelligencia mint önálló elméleti tudományág (a számítástechnika) megalapozó pillanatának .
A dartmouthi konferenciát követő évek a felfedezés, az új ismeretterjesztő területek eszeveszett meghódításának korszaka voltak. Az akkor kifejlesztett programokat a legtöbb ember egyszerűen "rendkívülinek" tartja: a számítógépek algebrai szöveges feladatokat oldanak meg, a geometriai tételeket demonstrálják és megtanulnak angolul beszélni. Akkor még kevesen hitték, hogy ilyen „okos” viselkedés lehetséges a gépek számára. A kutatók ezután intenzív optimizmust mutatnak a magánszektorban, mivel cikkeikben azt jósolják, hogy egy teljesen intelligens gép épül a következő 20 évben. A DARPA-hoz hasonló kormányzati szervek jelentős beruházásokat hajtanak végre ezen az új területen.
Számos program sikeres.
Indoklás próbával és hibávalSok az első mesterséges intelligencia program, amely ugyanazt az alapvető algoritmust használja . Bizonyos célok teljesítéséhez (például egy játék megnyerése vagy a tétel bemutatása) lépésről lépésre haladnak a megoldás felé (egy-egy mozdulatot vagy egy dedukciót hajtanak végre), mintha egy labirintusban navigálnának, és haladnának vissza, amint elérik őket. zsákutcába kerülnek. Ezt a paradigmát „próba és hiba okfejtésnek” vagy visszalépésnek nevezik .
A fő nehézség abban rejlik, hogy sok probléma esetén a megoldás felé vezető lehetséges utak száma csillagászati, ez a híres „ kombinatorikus robbanás ”. A kutatók ezt követően heurisztikákkal vagy "ökölszabályokkal" próbálták csökkenteni a keresési helyet, amelyek kiküszöbölik azokat az utakat, amelyek valószínűleg nem vezetnek megoldáshoz.
Newell és Simon megpróbálja megragadni ennek az algoritmusnak egy általános verzióját az General Problem Solver nevű programban . Egyes "kutatási" programok képesek elvégezni az akkor lenyűgözőnek ítélt feladatokat, például a geometriai és algebrai problémák megoldását, mint például Herbert Gelernter (1958) Geometry Theorem Prover és a SAINT , amelyet James Slagle, Minsky egyik tanítványa írt ( 1961). Más programok áttekintik a célokat és az alcélokat a cselekvések megtervezése érdekében, például a Stanfordban kifejlesztett STRIPS rendszer robotjuk, Shakey viselkedésének szabályozására .
Természetes nyelvAz AI kutatás egyik fő célja, hogy a számítógépek természetes nyelven, például angolul kommunikáljanak . Az első siker a Bobrow STUDENT program volt , amely képes megoldani a középiskolások számára írt algebrai feladatokat.
A szemantikus hálózat csomópontokat használó fogalmakat (pl. "Otthon", "ajtó"), valamint a fogalmak közötti kapcsolatokat (pl. "Van ilyen") a csomópontok közötti kapcsolatokon keresztül. Az első szemantikus hálózatot használó AI programot Ross Quillian írta, a legerősebb (és legvitatottabb) változat pedig Roger Schank fogalmi függőségelmélete volt .
ELIZA által Joseph Weizenbaum vezethet beszélgetések annyira reális, hogy egyes felhasználók becsapni elhiteti őket kommunikál egy emberi lény, és nem egy program. A valóságban ELIZA-nak fogalma sem volt arról, miről beszél. Egyszerűen válaszolt egy hajóra, vagy válaszul megfogalmazta néhány nyelvtani szabály segítségével. ELIZA volt az első beszélgető ügynök .
MikrovilágokAz 1960-as évek végén Marvin Minsky és Seymour Papert , az MIT AI Lab munkatársai azt javasolták, hogy az AI kutatás a mesterségesen leegyszerűsített helyzetekre összpontosítson, amelyeket mikrovilágoknak is neveznek. Joggal említették, hogy az olyan nagy teljesítményű tudományokban, mint a fizika, az alapokat gyakran egyszerűsített modellek, például súrlódásmentes repülőgépek vagy tökéletesen merev karosszériák segítségével értették meg a legjobban. A legtöbb kutatás ezután egy „ blokkvilágra ” összpontosított , amely különböző formájú és méretű színes tömbökből állt, sima felületre rendezve.
Ez a paradigma lehetővé tette az innovatív munkát Gerald Sussman (aki a csapatot vezette), Adolfo Guzman , David Waltz (aki kitalálta a " kényszerterjesztést ") és különösen Patrick Winston gépi látásmódjában . Ugyanakkor Minsky és Papert robotkarot épített, amely egymásra rakta a blokkokat, és életet lehelt ezekbe a blokkvilágokba. E mikrovilág-programok legnagyobb sikere Terry Winograd SHRDLU-ja volt . Utóbbiak közönséges mondatokkal tudtak angolul kommunikálni, megtervezni és végrehajtani a műveleteket.
Az AI kutatók első generációja a következő jóslatokkal látja el munkáját:
Ban ben 1963. júniusaz MIT 2,2 millió dollárt kap az új ARPA-ból ("Ügynökség a Haladó Kutatási Projektekért", amely később DARPA lett ). A pénzt a Project MAC (in) finanszírozására használják, amely magában foglalja a Minsky és McCarthy által öt évvel korábban alapított "AI Groupot" . Az ARPA továbbra is évi hárommillió dollárt biztosít 1970-ig. Az ARPA hasonló támogatási programot hajtott végre Newell és Simon között Carnegie Mellonban, valamint a Stanford AI projektet (John McCarthy alapította 1963-ban). Egy másik fontos AI laboratórium jött létre a University of Edinburgh által Donald Michie 1965 Ezek a négy intézmény továbbra is a fő központja AI kutatás tudományos szinten sok éven át.
A pénzt kevés ellenőrzéssel osztják szét. A Minsky volt Harvard- professzor , JCR Licklider , majd az "Információs Feldolgozási Technológiai Iroda" ( IPTO ) vezetője és az ARPA Parancsnoki és Ellenőrzési Programjának igazgatója úgy véli, hogy szervezetének "embereket kell finanszíroznia, nem projekteket! »És felhatalmazza a kutatókat, hogy folytassák az összes számukra érdekesnek tűnő utat. Ez a MIT-nél a teljes szabadság légkörét teremti meg, amely így meghonosítja a hackerkultúrát . Licklider (1962-64) Ivan Sutherland (1964-66), Robert Taylor (1966-69) és Lawrence Roberts (1969-1972) helyébe lépett, akik mind közel állnak az MIT-hez és a Licklider folytatása az IA-val szemben. Ez a gyakorlati hozzáállás azonban nem tart fenn.
Az 1970-es években a mesterséges intelligencia kritikát és költségvetési visszaesést szenvedett el, mivel a mesterséges intelligencia kutatóinak nem volt egyértelmű képük a problémák nehézségeiről. Óriási optimizmusuk túlzott várakozásokat váltott ki, és amikor az ígért eredmények nem valósulnak meg, a mesterséges intelligenciába való beruházások elsorvadnak. Ugyanebben az időszakban a konnexionizmust 10 évig szinte teljesen elállta Marvin Minsky pusztító kritikája a perceptronokról . A mesterséges intelligencia 1970-es évek végén a nagyközönségben kialakult negatív képe ellenére új ötleteket kutatnak a logikai programozásban , a józan ész érvelésében és más irányokban.
Az 1970-es évek elején az AI programok kapacitása korlátozott volt. A legnépszerűbb előadók nehezen manipulálják a megoldani kívánt problémák egyszerűsített változatait, és az összes probléma bizonyos értelemben "apróság". Valójában az AI kutatói több, leküzdhetetlen alapvető korlátozással néznek szembe, és bár egyes határokat azóta átléptek, mások továbbra is valódi akadályok.
A számítási teljesítmény korlátaiAz akkori hatalmat és emlékezetet helyesen tekintették a gyakorlati alkalmazások valódi akadályának; alig elegendőek az egyszerűsített modellek bemutatására.
Így Ross Quillian a természetes nyelvről szóló munkája húsz szóból álló szókincsre korlátozódik , mert az emlékezet nem fér el többet.
Ezenkívül Hans Moravec 1976-ban azt panaszolja, hogy a számítógépek milliószor túl gyengék ahhoz, hogy bármilyen intelligenciát megmutassanak, hogy messze nem érik el a minimális kritikus küszöböt. Ahhoz, hogy jobban megértsük, mit ért küszöb alatt, a következő analógiát használja: "Egy bizonyos teljesítményszint alatt egy repülőgép síkban marad a földön, és egyáltalán nem tud felszállni, egyszerűen lehetetlen". A számítási teljesítmény növekedésével azonban ez végül lehetővé válik.
Ami a számítógépes látást illeti , Moravec becslései szerint az emberi retina mozgásának és kontúrjainak valós időben történő észleléséhez szükséges képességeinek egyszerű összeegyeztetése (manapság egyszerű probléma) 10 9 művelet / másodpercre képes generikus számítógépre lenne szükség (1000 MIPS ). Összehasonlításképpen: az 1976-os leggyorsabb számítógép, a Cray-1 (ára 5 és 8 000 000 dollár között volt) csak körülbelül 80-130 MIPS-re volt képes, és egy akkori tipikus asztali számítógép még az 1 MIPS-t sem érte el. Tény, hogy a becslés, lenyűgöző az idő, kiderült, hogy túlságosan optimista: 2011-ben, valós számítógépes látás alkalmazások szükséges tíz ezerszer több energiát, kezdve helyett 10.000 és 1.000.000. MIPS .
Belső korlátok: NP teljesség1972-ben a következő Cook-tétel , Richard Karp azt mutatta, hogy sok nagyon nehéz problémát , melyek megtalálása optimális megoldások elképzelhetetlen volt, aminek az a következménye, hogy az alapvető problémát a mesterséges intelligencia nem halad. A skála.
Az általános kultúra gondolkodása és tudásbázisaA mesterséges intelligencia számos nagy alkalmazásának, például a számítógépes látásnak vagy az automatikus természetes nyelv feldolgozásának hatalmas mennyiségű információra van szüksége a való világból olyan programok felállításához, amelyek képesek "megérteni" a látottakat vagy látni. E területek kutatói már az 1970-es években felfedezték, hogy a megfelelő információ mennyisége nagyon nagy, bár a gyermek nagyon gyorsan megszerzi azt. Akkoriban még nem lehetett ilyen adatbázist vagy olyan programot felépíteni, amely képes lenne ennyi információ kezelésére.
Moravec paradoxonaA mesterséges intelligencia és a robotika kutatói, Hans Moravec , Rodney Brooks és Marvin Minsky megállapították, hogy a magas szintű érvelést gyakran könnyebb reprodukálni és szimulálni egy számítógépes programmal, mint az emberi szenzomotoros készségeket. Ez ellentmondásosnak tűnhet, mivel az embernek nincs különösebb nehézsége az utóbbi kategóriába tartozó feladatok végrehajtásával, az előbbivel ellentétben.
Például a tételek bemutatását vagy a geometriai problémák megoldását a számítógépek viszonylag elvégezhetik, de egy egyszerűbb feladat az ember számára, például egy arc felismerése vagy a helyiség keresztezése ütközés nélkül, a gépek számára már régóta nagyon bonyolult. Így a számítógépes látás és a robotika kutatása alig haladt előre az 1970-es évek közepén.
A keretrendszer és a minősítési kérdésekA logikát használó mesterséges intelligencia-kutatók (mint John McCarthy ) azt találták, hogy nem képviselhetnek olyan szokásos következtetéseket, amelyek tervezéssel vagy alapértelmezett érveléssel jártak, anélkül, hogy módosítaniuk kellett volna a logika szerkezetét. Új logikákat kellett kifejleszteniük (például nem monoton és modális logikákat ), hogy megpróbálják megoldani ezeket a problémákat.
Az ügynökségek, amelyek befektettek a mesterséges intelligencia kutatásába (például az Egyesült Királyság kormánya , a DARPA és az NRC, az American Research Council ), elkeserednek az előrehaladás hiányában, és gyakorlatilag az összes mesterséges intelligencia-kutatás finanszírozását csökkentik. Ez a viselkedés már 1966-ban elkezdődött, amikor egy ALPAC jelentés úgy tűnt, hogy bírálja a gépi fordítás erőfeszítéseit. 20 millió dollár elköltése után az NRC úgy dönt, hogy mindent abbahagy. 1973 Lighthill jelentés (in) az állam AI kutatás Angliában bírálta a gyászos kudarca AI elérni a „ambiciózus”, és vezetett a bontás AI kutatás ebben az országban (Ez a jelentés külön megemlíti a kombinatorikus robbanás probléma , mint az egyik az AI meghibásodásainak okai). Ami a DARPA-t illeti, rendkívül csalódott a Carnegie-Mellon-i Beszédértés kutatási programban dolgozó kutatók miatt, és évi 3 millió dolláros támogatást törölt. Tehát 1974 körül ritka volt az AI-projektek finanszírozásának megtalálása.
Hans Moravec a válságot kollégái irreális jóslatainak tulajdonította. „Sok kutató az egyre növekvő túlzások hálójában rekedt. Egy másik probléma merült fel: A Mansfield- módosítás 1969-es szavazása növekvő nyomás alá helyezte a DARPA-t, hogy csak "közvetlenül alkalmazható kutatásokat finanszírozzon, nem pedig alapvető feltáró kutatásokat". A hatvanas években hasonló kreatív, szabadkerekű kutatások finanszírozása már nem a DARPA-tól származik. Ehelyett a pénzt konkrét projektekre irányították át, konkrét célokkal, például autonóm fő harckocsik vagy csatairányítási rendszerek számára.
Számos filozófus határozottan kifogásolja az AI kutatóinak állításait. Az első az ellenfelek is John Lucas , aki hivatkozik a nem-teljességi tétele a Gödel megtámadni a képessége automatikus tétel tüntetők bizonyítani bizonyos állításokat. Hubert Dreyfus kigúnyolja a hatvanas évek megsértett ígéreteit, és kritizálja az AI hipotéziseit, azzal érvelve, hogy az emberi gondolkodásnak valójában nagyon kevés „szimbolikus feldolgozásra” van szüksége, de mindenekelőtt a megtestesülés , az ösztön , az öntudatlan „ know-how ” érzésére . A kínai kamra érv által előadott John Searle 1980-ban kísérletet annak bizonyítására, hogy a program nem lehet mondani, hogy „megérteni” a szimbólumokat használ (a minőség a „ szándékosság ”). Ha a szimbólumoknak nincs jelentősége a gépre nézve, nem lehet minősíteni a gépet „gondolkodónak”, mondja Searle.
Ezeket a kritikákat az AI kutatói nem igazán veszik figyelembe, mivel egyesek nem a probléma lényegét célozzák meg. Az olyan kérdések, mint az eldönthetetlenség, a benne rejlő összetettség vagy az általános kultúra meghatározása, sokkal közvetlenebbnek és súlyosabbnak tűnnek. Úgy gondolják, hogy a "know-how" és az "intencionalitás" közötti különbség alig ad hozzá egy számítógépes programhoz . Minsky azt mondja Dreyfusról és Searle-ről, hogy "félreértették a kérdést, és figyelmen kívül kell hagynunk őket". Dreyfus kritikusait, aki az MIT-n tanít, friss levegővel fogadják: később bevallotta, hogy az AI kutatói "nem mertek velem enni, mert attól féltek, hogy együtt fogunk látni". Joseph Weizenbaum , az ELIZA szerzője úgy véli, hogy kollégái magatartása Dreyfusszal szemben szakszerűtlen és gyerekes. Noha nyíltan kritizálja Dreyfus álláspontját, egyértelművé teszi, hogy valakivel nem így kell bánni.
Weizenbaumnak komoly etikai kétségei vannak az AI-val kapcsolatban, amikor Kenneth Colby megírja a DOCTOR-ot , egy beszélgetési ügynök- terapeutát. Weizenbaum zavarban van, hogy Colby a Mindless programját komoly terápiás eszköznek tekinti. Ekkor viszály támad, és a helyzet súlyosbodik, amikor Colby elmulasztja megemlíteni Weizenbaum programhoz való hozzájárulását. 1976-ban Weizenbaum publikálja a számítógépes hatalmat, és az emberi értelem (in) elmagyarázza, hogy a mesterséges intelligencia visszaélése potenciálisan leértékelheti az emberi életet.
A perceptron egyfajta ideghálózat, amelyet 1958-ban vezetett be Frank Rosenblatt . A legtöbb akkori mesterséges intelligencia-kutatóhoz hasonlóan ő is optimista, és azt jósolja, hogy "egy perceptron képes lehet megtanulni, döntéseket hozni és fordítani a nyelveket". Ezeknek a fogalmaknak a hatvanas években dinamikus kutatási programot hajtottak végre, ám annak hirtelen vége lett Minsky és Papert 1969-ben megjelent Perceptrons című könyvének megjelenése után . Ez a könyv számos korlátot mutat arra, hogy a perceptronok mit tehetnek, és több túlzást is megjegyez Frank Rosenblatt jóslataiban . A könyv hatása pusztító: tíz éven keresztül nem végeznek kutatásokat a konnektionizmus területén . Csak egy évtized után új kutatógeneráció foglalkozott ismét a problémával, nevezetesen Franciaországban, Guy Perennouban és Serge Castanban.
John McCarthy már 1958-ban bevezette a logika használatát az AI-ben, a Tanácsadója című cikkében . 1963-ban J. Alan Robinson felfedezett egy viszonylag egyszerű módszert a dedukció megvalósítására. Ehhez feltalálja a felbontás és az egyesülés fogalmát . Valójában a közvetlenebb megvalósítások, mint amilyeneket McCarthy és tanítványai a hatvanas évek végén kipróbáltak, különösen hatástalannak bizonyultak, mivel az algoritmusok csillagászati számú lépést igényelnek a nagyon egyszerű tételek bizonyításához. Egy eredményes alkalmazásának logikai alakult a 1970-es Alain Colmerauer és Philippe Roussel a University of Marseille-Luminy és Robert Kowalski (in) a University of Edinburgh , aki megalkotta a programozási nyelv Prolog . A Prolog az állítmányok kiszámításának egy részhalmazát , a Horn-záradékokat használja , amely hatékonyabb számításokat tesz lehetővé. Más kutatók gyártási szabályokat használnak, beleértve Edward Feigenbaum szakértői rendszereit , valamint Allen Newell és Herbert Simon szoftverét, amely a Soar and Theory egységes megismeréséhez vezet ["Egységes megismerési elmélet"]1990.
A logikus megközelítést már a kezdetektől fogva kritizálták. Így Hubert Dreyfus megjegyzi, hogy az emberek ritkán használják a logikát, amikor problémákat oldanak meg. Olyan pszichológusok tapasztalatai, mint Peter Wason , Eleanor Rosch , Amos Tversky , Daniel Kahneman és mások, többé-kevésbé alátámasztják ezt a véleményt. McCarthy ellenkezett azzal, hogy az emberek tevékenysége lényegtelen, elmagyarázva, hogy a cél az, hogy olyan gépek legyenek, amelyek képesek megoldani a problémákat, nem pedig az emberekhez hasonlóan gondolkodó gépek. De az automatikus dedukción alapuló megközelítés legsúlyosabb kritikája Stephen Cook számítástechnikai teoretikustól származik, aki A tétel-bizonyító eljárások komplexitása című híres cikkében kimutatja, hogy „a tételek bizonyítására nincsenek hatékony automatikus eljárások, hacsak P = NP .
McCarthy megközelítésének kritikusai között szerepel az MIT-ben dolgozó kollégák országszerte. Marvin Minsky , Seymour Papert és Roger Schank olyan problémákat próbáltak megoldani, mint a "történet megértése" és a "tárgyak felismerése", amelyekhez egy gépnek emberként kell gondolkodnia. Az olyan hétköznapi koncepciók manipulálásához, mint a "szék" vagy az "étterem", ugyanazokat a többé-kevésbé logikus feltételezéseket kell megtenniük, mint általában az emberek. Sajnos az ilyen pontatlan fogalmakat nehéz ábrázolni a logikában. Gerald Sussman megjegyzi, hogy „a pontos nyelv használata a pontatlan fogalmak leírására nem teszi őket pontosabbá”. Schank alogikusan ezeket a megközelítéseket " rendetlen (be) " -ként írja le , ő ellenzi az " elegáns (be) " paradigmákat, amelyeket McCarthy, Kowalski, Feigenbaum , Newell és Simon használ .
1975-ben Minsky megjegyzi, hogy sok társa "tervezete" ugyanazt a megközelítést alkalmazza, vagyis egy keretet , amely az adott témában ( minden) magában foglalja az összes általános kulturális feltételezést . Például, ha manipuláljuk a „madár” fogalmát, akkor tények sokasága jut eszünkbe, így állíthatjuk, hogy repül, hogy férgeket eszik stb. . Tudjuk, hogy ezek a tények nem mindig igazak, és hogy az ezekből a tényekből levont összes következtetés nem "logikus", de ezek a strukturált feltételezések halmaza a vitaink vagy a gondolataink kontextusának része . Minsky ezeket a struktúrákat " kereteknek " nevezi . Eközben Schank bevezeti a keretek egy változatát, amelyet " szkripteknek " hív , hogy megválaszolja az angolul beszélő regényekkel kapcsolatos kérdéseket. Egyesek szerint néhány évvel később az objektumorientált programozás az " öröklés " fogalmát kölcsön fogja kapni a mesterséges intelligencia vezetőitől .
Az 1980-as években a " szakértői rendszerek " elnevezésű mesterséges intelligencia programokat elfogadták a vállalatok, és a tudás a mesterséges intelligencia kutatásának központi témája lett. Eközben a japán kormány a hatalmas mesterséges intelligenciát finanszírozza " ötödik generációs számítógépek (be) " kezdeményezésével. A másik esemény az újjászületés konnekcionizmus munkái révén John Hopfield és David Rumelhart .
A szakértői rendszer olyan program, amely az adott tudásterület kérdéseire válaszol vagy problémákat old meg, az adott területen élő emberi szakértők tudásából származó logikai szabályok felhasználásával. A legelső példányokat Edward Feigenbaum és tanítványai fejlesztették ki . Az 1965-ben indult Dendral a kémiai komponenseket spektrometrikus leolvasások alapján azonosítja. Az 1972-ben kifejlesztett Mycin lehetővé teszi a vér fertőző betegségeinek diagnosztizálását. Ezek a programok megerősítik a megközelítés életképességét.
A szakértői rendszerek szándékosan korlátozódnak a specifikus ismeretek egy kis területére (elkerülve ezzel az általános kultúra problémáját ), és egyszerű felépítésük lehetővé teszi a szoftver viszonylag egyszerű felépítését és javítását, miután telepítették. Végül, ezek a programok hasznosnak bizonyulnak , mert a mesterséges intelligencia először talál gyakorlati alkalmazást.
1980-ban az Xcon nevű szakértői rendszert , amelynek célja az ügyfeleknek szállítandó VAX számítógépek konfigurációjának optimalizálása , Carnegie-Mellon gyártotta a DEC számára . A siker óriási, mert a cég 1986-tól évente akár 40 millió dollárt is megtakaríthat. Ettől kezdve a vállalatok szerte a világon elkezdték fejleszteni és bevezetni szakértői rendszereiket, és 1985 körül több mint egymilliárd dollárt költöttek mesterséges intelligenciára, főleg ipari kutatási és fejlesztési központokban. Egy egész iparág jön létre a szakértői rendszerek körében, beleértve a hardvergyártókat, például a Symbolics és az LMI (Lisp Machines, Inc.), valamint olyan szoftvercégeket, mint az IntelliCorp és az Aion .
A szakértői rendszerek ereje a bennük rejlő szakértelemből fakad. Az 1970-es években teret hódító mesterséges intelligencia-kutatások új irányának részei. „Az AI kutatói - vonakodva, ahogy ellentmondottak a parsimony tudományos kánonjának - kezdték gyanítani, hogy az intelligencia nagyon jól alapulhat a felhasználás képességén. nagyszámú sokféle tudás, különböző módon ”- jegyzi meg Pamela McCorduck . „A hetvenes évek nagy tanulsága az volt, hogy az intelligens viselkedés nagyon függ az ismeretek feldolgozásától, néha az adott feladat területén nagyon fejlett tudástól. „A tudásbázis rendszerek és tudásmérnökség váltak központi kutatási mesterséges intelligencia az 1980.
Az 1980-as években meg is született Cyc , az első kísérlet az általános tudásprobléma elleni támadásra: gigantikus adatbázist hoztak létre azzal a céllal, hogy tartalmazzák mindazokat a triviális tényeket, amelyeket az átlagember ismer. Douglas Lenat , aki elindította és vezette a projektet, azzal érvel, hogy nincsenek parancsikonok - a gépek számára az egyetlen módja annak, hogy megismerjék az emberi fogalmak jelentését, az volt, hogy egyszerre egy-egy fogalmat tanítsanak rájuk. A projekt várhatóan több évtized alatt fog kibontakozni.
1981-ben a japán gazdasági, kereskedelmi és ipari minisztérium 850 milliót tart fenn a számítógépek ötödik generációjának (in) projektjére . Céljuk olyan programok megírása és olyan gépek felépítése, amelyek képesek beszélgetéseket folytatni, képeket fordítani, értelmezni és okoskodni, mint az emberek. A gond az indítványozók a rendszertelen megközelítés (a) , akkor válassza a Prolog fő számítógép nyelvét projekt is érintik mély ahhoz, hogy igényeiknek megfelelően.
Más országok új, ezzel egyenértékű programokkal válaszolnak. Az Egyesült Királyság 350 millió fontra indította az Alvey (in) projektet . Amerikai vállalatok konzorciuma a Microelectronics and Computer Technology Corporation-ből (vagy MCC-ből ) nagyszabású számítógépes és mesterséges intelligencia projektek finanszírozására szolgál. A DARPA reagált arra is, hogy megalapította a Stratégiai Számítástechnikai Kezdeményezést (Stratégiai Számítástechnikai Kezdeményezés), és 1984 és 1988 között megháromszorozta az AI-be történő beruházásait.
1982-ben John Hopfield fizikus bebizonyította, hogy egy bizonyos típusú ideghálózat (ma " Hopfield-hálózatnak " hívják ) teljesen új módon tanulhat és dolgozhat fel információkat. Ugyanebben az időszakban David Rumelhart népszerűsítette az ideghálózatok képzésének új módszerét, a „ gradiens backpropagation ” elnevezést (amelyet Paul Werbos néhány évvel korábban fedezett fel ). Ez a két új felfedezés újjáélesztette a kapcsolattartás területét, amelyet 1970 óta nagyrészt felhagytak.
A fiatal birtokot egységesítette és inspirálta az 1986-os Distributed Parallel Processing megjelenése - kétkötetes cikkgyűjtemény, amelyet Rumelhart és McClelland pszichológus szerkesztett . A neurális hálózatok kereskedelmi sikerekké válnak az 1990-es években, amikor olyan alkalmazások motorjaként kezdjük használni őket, mint az optikai karakterfelismerés és a hangfelismerés .
Az üzleti közösség érdeklődése a mesterséges intelligencia iránt megduzzadt, majd az 1980-as években a gazdasági buborék klasszikus mintáját követve csökkent . Az AI összeomlása a befektetők és a kormányzati szervek általi felfogás szintjén történt - a kritika ellenére a tudományos terület tovább halad. Rodney Brooks és Hans Moravec , a robotika kapcsolódó területének kutatói a mesterséges intelligencia teljesen új megközelítése mellett érvelnek.
Az „AI tél” kifejezés olyan kutatók körében terjedt el, akik már megtapasztalták az 1974-es költségvetési megszorításokat, aggodalommal veszik tudomásul, hogy a szakértői rendszerek körüli izgalom nincs kontroll alatt, és biztosan még több lesz a csalódás mögött. Félelmeik valóban megalapozottak: az 1980-as évek vége és az 1990-es évek eleje között a mesterséges intelligencia számos költségvetési megszorításon esett át.
Az elkövetkező vihar első jelei a mesterséges intelligencia hardverpiacának hirtelen összeomlása voltak 1987-ben. Az Apple és az IBM asztali számítógépei fokozatosan javultak a sebesség és a teljesítmény terén, és 1987-ben felülmúlják a piac ékszereit, például a Symbolics legjobb Lisp gépeit . . Ezért már nincs ok vásárolni őket. Egyik napról a másikra egy félmilliárd dolláros ipar eltűnik.
Végül az első sikeres szakértői rendszerek, például az Xcon fenntartása túl sokba kerül. Ezek nehéz frissítés, nem tudják megtanulni, ők is „ törékeny (in) ” (na jó, akkor lehet, hogy groteszk hibákat, amikor paramétereket az normális értékek) és belegabalyodhatnak problémák (például, mint a minősítési probléma). A szakértői rendszerek hasznosnak bizonyultak, de csak nagyon specifikus összefüggésekben.
Az 1980-as évek végén a DARPA Stratégiai Számítástechnikai Kezdeményezése hirtelen csökkentette a mesterséges intelligencia finanszírozását. Az új DARPA-menedzsment arra a következtetésre jutva, hogy a mesterséges intelligencia már nem „divatos”, átirányította a támogatásokat olyan projektekhez, amelyek elősegítik a gyors eredményeket.
1991-re Japán által az ötödik generációs számítógépek által 1981-ben felsorolt lenyűgöző célokat nem sikerült teljesíteni. Ezenkívül néhányuk, például a "rendes beszélgetés vezetése", még mindig nem történt meg húsz évvel később. Mint más mesterséges intelligencia projektek esetében, a lécet is túl magasra tették.
Az 1980-as évek végén több kutató a mesterséges intelligencia teljesen új megközelítéséért folyamodott, amelynek középpontjában a robotika állt. Úgy vélik, hogy az igazi intelligencia kimutatásához a gépnek tisztában kell lennie testével - észlelnie, mozognia, túlélnie és fejlődnie kell a világban. Megmagyarázzák, hogy ezek a szenzomotoros képességek elengedhetetlenek a magasabb szintű képességekhez, például az általános tudásalapú gondolkodáshoz, és hogy az absztrakt gondolkodás valójában a legkevésbé érdekes vagy legfontosabb emberi képesség (vö. Moravec paradoxonja ). "Alulról felfelé" védenek egy intelligenciát. "
A megközelítés feleleveníti a kibernetikából és a szabályozásból származó fogalmakat, amelyek a hatvanas évek óta elvesztették hatásukat. Az egyik előfutár, David Marr az 1970-es évek végén az elméleti idegtudományban elért sikereivel érkezett az MIT-re, hogy vezesse a látást tanulmányozó csoportot . Ő cáfolja minden szimbolikus megközelítés ( mind McCarthy logika és Minsky keretek ), arra hivatkozva, hogy a mesterséges intelligencia igényeket, hogy megértsék a fizikai gép látás alulról előtt szimbolikus feldolgozás lehet bevonni a játékba. Téren. Munkáját hirtelen megszakította az 1980-ban őt ért leukémia.
Az elefántok nem játszanak sakkot 1990-ben megjelent cikkében Rodney Brooks robotkutató közvetlenül a fizikai szimbolikus rendszer hipotézisét veszi célba, elmagyarázva, hogy a szimbólumokra nem mindig van szükség, mert „A világ saját modellje és a legjobb. Mindig tökéletesen naprakész. Mindig tartalmazza az összes szükséges részletet. Szükséges az ismételt helyes mérés ”. Az 1980-as és 1990-es években sok kognitikus elutasította az elme szimbolikus feldolgozási modelljét azzal is, hogy elmagyarázta, hogy a test alapvető fontosságú az érvelésben, a tézis pedig megtestesülés .
A mesterséges intelligencia területe, több mint fél évszázaddal a háta mögött, végül sikerült elérnie legrégebbi céljait. Sikeresen elkezdtük használni a technológiai szektorban, anélkül, hogy valóban előterjesztettük volna. Bizonyos sikerek a számítógépek elterjedésével jártak, másokat pedig azáltal, hogy konkrét, elszigetelt problémákra összpontosítottunk, és a tudományos integritás legmagasabb színvonalával elmélyítettük őket. Ennek ellenére az AI hírneve - legalábbis az üzleti világban - korántsem tökéletes. Belsőleg nem tudjuk igazán megmagyarázni annak okait, hogy a mesterséges intelligencia nem válaszol az emberi egyenértékű intelligencia szintjének álmára, amely az 1960-as években megragadta a világ képzeletét. Mindezek a tényezők magyarázzák az AI töredezettségét számos versengő részbe - egy adott kérdésnek vagy útnak szentelt domainek, amelyek néha olyan messzire is eljutnak, hogy olyan nevet választanak, amely elkerüli a „mesterséges intelligencia” ma már megfertőzött kifejezését. Az AI hirtelen körültekintőbb, de sikeresebb is, mint valaha.
A 1997. május 11, A Deep Blue lett az első sakk számítógépes rendszer, amely legyőzte a regnáló világbajnok Garry Kasparovot . 2005-ben egy stanfordi robot megnyerte a DARPA Grand Challenge versenyt azzal, hogy 131 mérföldet önállóan haladt egy sivatagi pályán, előzetes felderítés nélkül. Két évvel később egy carnegie-meloni csapat nyerte a DARPA Urban Challenge versenyt , amely ezúttal önállóan hajózott 55 mérföldet városi környezetben, tiszteletben tartva a közlekedési viszonyokat és a közlekedési szabályokat. Ban ben2011. februárEgy bemutató játék a játék show Jeopardy! , a Jeopardy! két legnagyobb bajnokát, Brad Ruttert és Ken Jenningst kényelmes különbséggel verte az IBM által a Watson Kutatóközpontban tervezett kérdés-válasz rendszer .
Ezek a sikerek nem forradalmi új paradigmákon alapulnak, hanem a mérnöki technikák gondos alkalmazásán és a számítógépek fenomenális erején. Valójában a Deep Blue gép 10 milliószor gyorsabb, mint a Ferranti Mark I, amelyet Christopher Strachey 1951-ben tanított sakkozni. Ez a drámai növekedés Moore törvényét követi , amely azt jósolja, hogy a számítógépes memória sebessége és képessége kétévente megduplázódik. Nem törjük meg a „számítási teljesítmény” zárját?
Az 1990-es években fokozatosan kialakult egy új paradigma, az " intelligens ügynökök ". Bár a korai kutatók moduláris "megosztani és meghódítani" megközelítéseket javasoltak a mesterséges intelligenciában, az intelligens ügynök még nem érte el modern formáját, mielőtt Judea Pearl , Allen Newell és mások a döntéselmélet és a gazdaságtan fogalmaiban . Ha a racionális ágens gazdasági definícióját kombináljuk az objektum vagy akár a modul számítógépes meghatározásával, akkor az intelligens ágens paradigmája érvényesül .
Az intelligens ügynök olyan rendszer, amely érzékeli a környezetét és olyan cselekvéseket hajt végre, amelyek maximalizálják a siker esélyeit. E definíció szerint az egyszerű programok, amelyek megoldanak bizonyos problémákat, "intelligens ügynökök", akárcsak az emberek és az emberi szervezetek, például a vállalkozások . Az intelligens ágens paradigma a mesterséges intelligenciát az „intelligens ágensek tanulmányozásaként” definiálja. Az AI néhány korai meghatározásának általánosítása: túlmutat az emberi intelligencia tanulmányozásán; az intelligencia minden típusát tanulmányozza.
Ez a paradigma megnyitotta az utat a kutatók előtt az elszigetelt problémák tanulmányozása előtt; a talált megoldások egyszerre ellenőrizhetőek és hasznosak. Egy közös nyelv lehetővé teszi a problémák leírását és megoldásaik megosztását egymás között, és más területek is használják ezt az elvont ágensek fogalmát, mint például a közgazdaságtan és a szabályozás . Úgy gondolják, hogy az " ügynökarchitektúra " (akárcsak Soar- tól Newellig ) egy napon a kutatóknak sokoldalúbb és intelligensebb alapú intelligens ügynökrendszereket építene.
A mesterséges intelligencia kutatói olyan kifinomult matematikai eszközöket fejlesztenek és alkalmaznak, mint még soha. Rájönnek, hogy számos olyan problémával, amelyet a mesterséges intelligenciának meg kell oldania, már más területeken is foglalkoztak, például matematikában , közgazdaságtanban vagy műveletkutatásban . Különösen a matematika javítja a szilárdabban megalapozott tudományágakkal való együttműködést, és keresztmegtermékenyítéshez, valamint mérhető és kimutatható adatok gyűjtéséhez vezet; a mesterséges intelligencia a "tudományos ortodoxia" felé halad. Russell és Norvig 2003 nem kevesebb, mint "forradalom" és " elegáns (be) győzelem" minősíti .
Judea Pearl 1988 - as alapkönyve integrálja a valószínűség- és döntéselméletet a Bayes-hálózatokkal , a rejtett Markov-modellekkel , az információelmélettel , a sztochasztikus számítással és a matematikai optimalizálással . A matematikai leírások a " számítási intelligencia " ősi paradigmáira vonatkoznak , mint például az ideghálózatok és az evolúciós algoritmusok .
A mesterséges intelligencia kutatóinak eredetileg kidolgozott algoritmusai kezdik a nagyobb rendszerek részét képezni. Az AI számos nagyon összetett problémát megoldott, és megoldásaikat az egész technológiai iparban alkalmazták, mint például adatbányászat , ipari robotika , logisztika , hangfelismerés , banki alkalmazások, orvosi diagnosztika, mintafelismerés és a Google keresőmotor .
A mesterséges intelligencia területe gyakorlatilag nem kapott elismerést ezekért a sikerekért. A legnagyobb újítások egy része az informatikai eszköztár egy újabb elemének állapotává vált. Nick Bostrom elmagyarázza: „Sok élvonalbeli mesterséges intelligencia szűrődött be az általános alkalmazásokba, anélkül, hogy hivatalosan is hozzá lett volna kötve, mert amint valami elég hasznos és általános dolog lesz, leveszi az AI címkét. "
A kilencvenes években számos mesterséges intelligencia-kutató önként hívta tanulmányait más néven, például számítástechnika, tudásalapú rendszerek, kognitív rendszerek vagy számítási intelligencia. Ennek oka részben az lehet, hogy a területüket alapvetően különbözik az AI-től, hanem azért is, mert ezek az új nevek megkönnyítik a finanszírozást. Legalábbis az üzleti szférában a mesterséges intelligencia télének meg nem engedett ígéretei továbbra is kísértik a mesterséges intelligencia kutatásait, amint a New York Times 2005-ben közölte: "Számítástudósok és szoftvermérnökök attól féltek, hogy félnek édes álmodozóknak tartják. "
1968-ban Arthur C. Clarke és Stanley Kubrick azt képzelik, hogy 2001 -től egy gép intelligenciája összehasonlítható lesz, még az emberi képességeket is meghaladja. Az általuk létrehozott karakter, a HAL 9000 , számos mesterséges intelligencia-kutató körében elterjedt meggyőződésen alapszik, hogy ilyen gép 2001-ben létezik.
Marvin Minsky csodálkozik: „Miért nem volt 2001-ben a HAL? És úgy gondolja, hogy figyelmen kívül hagyják azokat a központi kérdéseket, mint az általános tudásalapú gondolkodás, mivel a legtöbb kutató olyan szempontokra összpontosít, mint az ideghálózatok kereskedelmi alkalmazásai vagy a genetikai algoritmusok . John McCarthy viszont még mindig a kvalifikációs problémát okolja. Mert Ray Kurzweil , a probléma abban rejlik, hogy a hiányzó számítási teljesítmény, és az alapján a Moore-törvény, azt jósolja, hogy a gépek intelligenciával hasonló emberek érkeznek körül 2030. A gyakorlatban azt látjuk, az érkezés a „intelligens” személyi asszisztens Apple Siri 2007-ben, a Google Asszisztens 2012-ben és a Microsoft Cortana 2014-ben.
A mesterséges intelligencia kutatása Franciaországban a hetvenes évek vége felé kezdődött, különös tekintettel a GR 22-re (más néven Claude-François Picard kutatócsoportra, ahol Jacques Pitrat és Jean-Louis Laurière dolgozik ) Párizsban, a GIA-ban (sic) (kb. Alain Colmerauer ) Marseille, LIMSI Orsay, CRIN Nancy CERFIA Toulouse és Laboria (kb Gérard Huet és egy nagyon alapvető kitölteni) a Rocquencourt.
Az alaki felismerés és a mesterséges intelligencia éves országos kongresszusát 1979-ben hozták létre Toulouse-ban. Az 1993-ban Chambéry-ben megrendezett IJCAI (in) konferencia megszervezésével és a GRECO-Kína mesterséges intelligencia létrehozásával 1983-ban egy tanult társadalom, az AFIA 1989-ben keletkezik, amely többek között megszervezi országos konferenciák a mesterséges intelligencia terén. Yann Le Cun ebből a francia iskolából származott .