Historia sztucznej inteligencji jest o wiele dłuższa i bardziej intrygująca, niż się powszechnie uważa. Na długo przed pojawieniem się komputerów, idee na jej temat pojawiały się w mitach, legendach i dziełach filozoficznych. maszyny, sztuczne stworzenia i mechaniczne mózgi Zdolne do myślenia i wykonywania ludzkich poleceń. Z czasem te historie ustąpiły miejsca teoriom matematycznym, eksperymentom naukowym, a w końcu sztucznej inteligencji, której używamy na co dzień.
Sztuczna inteligencja przeżywa obecnie fenomenalny rozkwit: chatboty, generatywne modele tekstu, obrazów i wideo, systemy, które prowadzą samochody lub pomagają odkrywać leki… Ale aby zrozumieć, gdzie jesteśmy, musimy prześledzić ścieżkę, która zaczyna się w starożytności i prowadzi do najnowszych wydań, takich jak ChatGPT, Claude 3.5, Gemini, AlphaFold lub modele agentowePodróż ta pełna jest postępów, przesady, kryzysów finansowych i debat etycznych, które wciąż są bardzo aktualne.
Od mitów i alchemików do pierwszych automatów
Na długo przed pojawieniem się komputerów, różne kultury wyobrażały sobie formy życia stworzone przez człowieka. Mitologia grecka opowiada o metalowych gigantach, ożywionych posągach i stworzeniach stworzonych przez bogów lub boskich rzemieślników. Klasycznym przykładem jest Strażnik Krety, który patrolował wyspę, ciskając kamieniami w wrogie statki i okrążając jej granice trzy razy dziennie; według niektórych źródeł został on wykuty przez Hefajstosa z pomocą cyklopa i działał dzięki… wewnątrz znajdował się płyn witalny, który można było opróżnić, usuwając prosty korekObraz „ciała mechanicznego”, które wyłącza się, gdy traci energię, z daleka przypomina współczesną ideę odłączania maszyny od zasilania.
W tej samej tradycji pojawia się postać Pigmaliona, rzeźbiarza i króla, który zakochuje się w posągu, który sam stworzył. Błaga boginię Wenus o kobietę identyczną z jego dziełem, a mit igra z granicą między tym, co nieożywione, a tym, co żywe, antycypując to bardzo ludzkie pragnienie tworzenia. sztuczni towarzysze, którzy wyglądają prawdziwie.
W okresie renesansu i nowożytności alchemicy przenieśli te fantazje na bardziej „techniczne” terytorium. Szwajcar Paracelsus opisał metodę, która rzekomo pozwalała na stworzenie „sztucznego człowieka” z mieszaniny płynów ustrojowych i obornika, inkubowanej tygodniami i karmionej specjalnymi substancjami. Rezultatem miał być homunkulus, mała żywa istota stworzona w laboratorium, ucieleśniająca ambicję generować życie poprzez procesy kontrolowane przez człowieka.
W średniowiecznej tradycji żydowskiej pojawia się golem: gliniana figurka, która ożywa, gdy włoży się jej do ust kawałek papieru ze świętym imieniem. W przeciwieństwie do innych legendarnych automatów, istota ta nie mówi; wykonuje jedynie proste polecenia i może stać się niekontrolowana, jeśli rytuał nie zostanie wykonany prawidłowo. Idea potężnego agenta, pozbawionego wyrafinowanego języka i o nieco niezdarnym zachowaniu, ma wiele wspólnego z… niektóre systemy sztucznej inteligencji, które wykonują instrukcje bez pełnego zrozumienia ich kontekstu.
W świecie islamskim ismailickie manuskrypty dotyczące alchemii poruszały temat takwīnSztuczne stworzenie życia. Autorzy przypisywani Dżabirowi ibn Hajjanowi opisali próby stworzenia wszystkiego, od roślin po zwierzęta, badając, jak Procesy fizyczne i chemiczne mogą dać początek istotom żywymWiele lat później Goethe powrócił do postaci homunkulusa w drugiej części Fausto, w którym stworzenie syntetyzowane w laboratorium dąży do stania się kompletnym człowiekiem, ale ginie, gdy rozbija się naczynie, w którym się znajduje.
W XIX wieku wyobraźnia literacka zwróciła się ku maszynom i sztucznym stworzeniom o silniejszych podstawach naukowych. Mary Shelley, z Frankenstein, przedstawia istotę złożoną z trupów, ożywioną za pomocą nauki i elektryczności, a Karel Čapek w swojej pracy teatralnej wprowadza RUR (Uniwersalne Roboty Rossuma) Samo słowo „robot”. Pisarze tacy jak Samuel Butler spekulują w esejach na temat maszyn, które ewoluują jak żywe istoty, a przypadki takie jak słynny automatyczny szachista analizowany przez Edgara Allana Poe podsycają fascynację artefakty zdolne do symulowania inteligencjiOd tamtej pory science fiction nie porzuciło tego tematu.
Narodziny logiki formalnej i idea myślenia obliczeniowego
Współczesna sztuczna inteligencja opiera się na bardzo konkretnej hipotezie: że myśli ludzkie można opisać na tyle precyzyjnie, aby można je było opisać. obróbka z wykorzystaniem reguł i symboliTo nie wzięło się znikąd. Chińscy, indyjscy i greccy filozofowie stworzyli już w pierwszym tysiącleciu p.n.e. ustrukturyzowane systemy dedukcji formalnej. Arystoteles sformułował teorię sylogizmu, Euklides rozwinął swoją teorię elementy W ramach aksjomatycznego modelu rozumowania, a także w kontekście islamu, Al-Chuwarizmi promował algebrę, co dało początek terminowi „algorytm”. Później europejscy myśliciele scholastyczni, tacy jak Wilhelm Ockham i Duns Szkot, dogłębniej badali, jak prowadzić rygorystyczne rozumowanie.
W późnym średniowieczu Ramon Llull zaprojektował maszyny logiczne zbudowane z obracających się dysków z symbolami, które po połączeniu generowały nowe twierdzenia. Llull wyobrażał sobie, że urządzenia te są w stanie systematycznie generować całą możliwą wiedzę z podstawowych prawd. Jego idee wpłynęły na Leibniza, który wieki później marzył o… „uniwersalna cecha”, która umożliwiałaby obliczanie argumentów w taki sam sposób, jak robi się to w przypadku liczb.
W XVII i XVIII wieku postacie takie jak Hobbes, Kartezjusz i sam Leibniz zastanawiali się, czy wszelkie racjonalne rozumowanie da się sprowadzić do pewnego rodzaju mechanicznego rachunku. Hobbes stwierdził wprost, że rozumowanie to „dodawanie i odejmowanie”, a Leibniz wyobraził sobie język, w którym dwaj filozofowie mogliby rozstrzygać swoje spory, po prostu siadając z tablicą i „obliczając”, kto ma rację. To zapoczątkowało to, co później nazwano hipoteza fizycznego systemu symboli:pomysł, że odpowiednie manipulowanie symbolami wystarczy, aby wytworzyć inteligencję.
W XIX wieku logika matematyczna dokonała ogromnego postępu dzięki George'owi Boole'owi i jego algebrze zdań oraz Frege'owi, który wprowadził bardzo precyzyjną notację formalną dla rozumowania. Opierając się na tych podstawach, Russell i Whitehead opublikowali swoją pracę w 1913 roku. Principia MathematicaTytaniczna próba wyprowadzenia całej matematyki z kilku formalnych aksjomatów. David Hilbert stawia następnie pytanie, czy całe rozumowanie matematyczne można w pełni sformalizować.
Odpowiedź pojawia się w zaskakujący sposób: Gödel pokazuje, że w każdym wystarczająco potężnym systemie zawsze będą prawdziwe twierdzenia, których nie da się udowodnić w samym systemie, a Turing i Church definiują abstrakcyjne modele obliczeń (maszynę Turinga i rachunek lambda), które, choć ujawniają ograniczenia, pokazują coś kluczowego dla sztucznej inteligencji: w tych granicach Każdą procedurę rozumowania mechanicznego można zaimplementować w maszynieTeza Churcha-Turinga zakłada, że urządzenie, które manipuluje prostymi symbolami (takimi jak 0 i 1), może w zasadzie emulować każdy możliwy algorytm.
Od kalkulatorów mechanicznych do mózgu elektronicznego
Oprócz tych postępów teoretycznych, wynalazcy tacy jak Leibniz, Jacquard, Babbage, Percy Ludgate, Leonardo Torres Quevedo i Vannevar Bush zaprojektowali i zbudowali maszyny zdolne do wykonywania różnego rodzaju obliczeń. Ada Lovelace, współpracowniczka Babbage'a, zasugerowała nawet, że jego maszyna analityczna mogłaby stać się rodzajem „maszyny myślącej lub rozumującej”, choć przestrzegała przed wyolbrzymianiem jej możliwości. To był pierwszy raz, kiedy ktokolwiek poważnie rozważał stworzenie takiej maszyny. programowalna maszyna z pewnym poczuciem inteligencji.
Pierwsze pojawiły się w czasie II wojny światowej komputery elektroniczne na dużą skalę:Z3 Zuse'a, brytyjskie maszyny deszyfrujące podobne do Colossus, czy amerykańska ENIAC, oparte na koncepcjach, które wskrzesiły teoretyczne idee Turinga i które pod wpływem Johna von Neumanna stały się punktem odniesienia dla nowoczesnej architektury komputerowej.
W latach 1930. i 1940. XX wieku nastąpiło silne zbiegnięcie się kilku nurtów naukowych. Badania neurologiczne wykazały, że mózg funkcjonuje jako sieć neuronów, które emitują impulsy typu „wszystko albo nic”. Norbert Wiener zdefiniował cybernetykę, która opisuje sterowanie i sprzężenie zwrotne w układach elektrycznych. Claude Shannon sformalizował teorię informacji i przetwarzanie sygnałów binarnych. Turing zaś wykazał, że każdą formę obliczeń można wyrazić cyfrowo. Ta konwergencja sugeruje coś, co wydaje się nam dziś oczywiste: być może jest to możliwe. zbudować „elektroniczny mózg” zdolny do uczenia się i rozumowania.
W latach 40. i 50. XX wieku naukowcy z bardzo różnych dziedzin (matematyki, psychologii, inżynierii, ekonomii, nauk politycznych) zaczęli zgłębiać tę ideę. Alan Turing objął inicjatywę w 1950 roku swoim słynnym artykułem „Maszyny liczące i inteligencja”, w którym wprost postawił pytanie „Czy maszyny potrafią myśleć?” i zaproponował zastąpienie go ćwiczeniem operacyjnym: jeśli maszyna prowadzi rozmowę przez teletyp w taki sposób, że człowiek nie jest w stanie odróżnić jej od innej osoby, czy nie byłoby rozsądne stwierdzenie, że myśli? To jest zalążek… Test Turinga, co staje się kamieniem milowym w rozwoju sztucznej inteligencji.
W 1943 roku McCulloch i Pitts sformułowali pierwszy model sztucznej sieci neuronowej, wykazując, że wyidealizowane neurony ze stanami Boole'a mogą realizować podstawowe operacje logiczne. Ich praca zainspirowała młodych ludzi, takich jak Marvin Minsky, który w 1951 roku wraz z Deanem Edmondsem zbudował jedną z pierwszych maszyn sieci neuronowych – SNARCTymczasem inni badacze, tacy jak W. Grey Walter, opracowują małe, autonomiczne roboty sterowane za pomocą elektroniki analogowej, bez użycia komputerów cyfrowych, które już teraz wykazują ciekawe zachowania eksploracyjne.
Narodziny sztucznej inteligencji jako dyscypliny: Dartmouth i pierwsze programy
W 1956 roku odbyły się warsztaty w Dartmouth, zorganizowane przez Johna McCarthy'ego i Marvina Minsky'ego, przy wsparciu Claude'a Shannona i Nathana Rochestera. To właśnie tam ukuto termin „sztuczna inteligencja” i postawiono śmiałe stwierdzenie: każdy aspekt uczenia się lub jakąkolwiek inną cechę inteligencji można opisać z wystarczającą precyzją, aby maszyna mogła go symulować. Wśród uczestników znalazły się takie osobistości jak Ray Solomonoff, Arthur Samuel, Allen Newell i Herbert Simon, który później został… bohaterowie pierwszej fali badań nad sztuczną inteligencją.
Newell, Simon i Shaw przedstawiają w tym kontekście Teoretyk logikiprogram zdolny do udowodnienia twierdzeń Principia Mathematica, znajdując nawet bardziej eleganckie dowody niż oryginały. Simon posuwa się nawet do stwierdzenia, że rozwiązali oni stary problem umysł-ciało, pokazując, jak system materialny może wykazywać właściwości mentalne. To stanowisko, które Searle później nazwie „silna SI„Twierdzi, że odpowiedni system symboliczny nie tylko symuluje umysł, ale faktycznie nim owłada”.
W kolejnych latach wyniki piętrzyły się, a atmosfera była pełna optymizmu. Pojawiły się programy rozwiązujące problemy algebraiczne, dowodzące twierdzeń geometrycznych, grające w warcaby na przyzwoitym poziomie (jak system Arthura Samuela, który już wcześniej wykorzystywał uczenie maszynowe do doskonalenia) lub prowadzące proste dialogi w języku naturalnym, jak ELIZA, która naśladowała terapeutę, parafrazując zdania użytkownika. Dla prasy i znacznej części opinii publicznej te osiągnięcia wydawały się niemal cudem i wzmacniały poczucie, że Maszyna obdarzona ogólną inteligencją jest już tuż za rogiem..
Na MIT, Stanford, Carnegie Mellon i innych uniwersytetach otwierają się laboratoria poświęcone wyłącznie sztucznej inteligencjiczęsto z hojnym finansowaniem ze strony agencji takich jak ARPA (przyszła DARPA). Ogólne algorytmy wyszukiwania, takie jak Ogólny rozwiązywacz problemówSystemy planowania, takie jak STRIPS (który będzie sterował robotem Shakey), reprezentacje wiedzy, takie jak sieci semantyczne, oraz programy, które próbują zrozumieć i generować język w kontrolowanych mikroświatach, takie jak SHRDLU, który opowiada o świecie kolorowych klocków i może nimi manipulować za pomocą ramienia robota.
Pierwszy poważny kryzys: ograniczenia techniczne i symboliczna „zima”
Wraz z nadejściem lat 60. i 70. XX wieku rzeczywistość zaczęła zasypywać nas porządną dawką realizmu. Programy, które były tak spektakularne w swoich zabawkowych wersjach, nie potrafiły sprostać rzeczywistym problemom. Wielokrotnie napotykały na to, co nazywamy… eksplozja kombinatorycznaLiczba możliwości, które można zbadać, rośnie astronomicznie, przez co naiwne algorytmy wyszukiwania stają się niewykonalne, nawet przy użyciu heurystyki.
Do tego dochodzą inne trudności: moc obliczeniowa jest śmiesznie niska w porównaniu z dzisiejszymi standardami, dostępna pamięć wymusza korzystanie z bardzo ograniczonego słownictwa, a okazuje się, że rozwiązywanie pozornie „prostych” zadań, takich jak rozpoznawanie twarzy czy pokonywanie toru przeszkód, jest znacznie trudniejsze niż udowodnienie twierdzenia. To właśnie będzie później nazywane Paradoks MoravcaMaszyny są stosunkowo dobre w tym, co uważamy za intelekt, ale zawodzą w zakresie podstawowych umiejętności sensomotorycznych.
Próby uchwycenia zdrowego rozsądku w symbolicznych bazach danych potykają się o ogrom codziennej wiedzy: potrzebne byłyby miliardy faktów i reguł, a nawet wtedy wysoce precyzyjne systemy okazują się kruche, ponieważ rzeczywistość jest przepełniona wyjątkami i niuansami. Wyrażanie za pomocą ścisłej logiki tego, z czym ludzie radzą sobie w sposób rozproszony i elastyczny, staje się beznadziejne. Jak powiedział Gerald Sussman: Używanie precyzyjnego języka do omawiania zasadniczo niejasnych koncepcji nie czyni ich jaśniejszymi..
Agencje finansujące, które uwierzyły w optymistyczną retorykę lat 60., zmęczyły się niespełnionymi obietnicami. Niszczycielskie raporty, takie jak raport ALPAC na temat tłumaczenia maszynowego z 1966 roku czy raport Lighthilla w Wielkiej Brytanii z 1973 roku, gwałtownie ograniczyły wiele programów w dziedzinie sztucznej inteligencji. DARPA przekierowała swój budżet na projekty o natychmiastowych celach i jasnych zastosowaniach wojskowych. Termin „Zima AI„aby opisać ten okres rozczarowań i cięć budżetowych, choć historycy tacy jak Thomas Haigh podkreślają, że dziedzina ta przetrwała poza kilkoma dużymi laboratoriami.
Chociaż sytuacja jest skomplikowana dla niektórych grup, inni badacze kontynuują swoją pracę, poszukując alternatywnych podejść. Badają programowanie logiczne, nowe formy rozumowania opartego na zdrowym rozsądku, bogatsze reprezentacje i zaczynają rozwijać krytyczny nurt przeciwko czystej symbolice, który otworzy drzwi do… metody subsymboliczne, takie jak sieci neuronowe, logika rozmyta lub obliczenia ewolucyjne.
Rozwój systemów eksperckich i wiedzy jako kluczowego zasobu
W latach 70. i 80. XX wieku część społeczności zajmującej się sztuczną inteligencją zmieniła swoje ukierunkowanie: zamiast próbować budować systemy ogólnego przeznaczenia, skupiła się na bardzo specyficznych obszarach, w których wiedza ekspercka mogła być użytecznie wykorzystywana. Tak narodziły się [brakujące słowo – prawdopodobnie „systemy” lub „systemy”]. systemy eksperckie, programy, które odpowiadają na pytania lub podejmują decyzje w określonych dziedzinach (diagnostyka medyczna, chemia, konfiguracja sprzętu…) w oparciu o reguły określone przez specjalistów.
Do sztandarowych przykładów należą Dendral, który pomaga identyfikować związki chemiczne na podstawie widm, oraz MYCIN, który sugeruje diagnozę i leczenie zakażeń krwi. Systemy te nie są zgodne ze zdrowym rozsądkiem, ale zaskakująco dobrze sprawdzają się w swojej niszy i dowodzą, że Kodowanie szczegółowej wiedzy dziedzinowej może przynieść zyskowne aplikacjeFirmy takie jak Digital Equipment Corporation przyjęły to podejście: ich system R1, ukończony w 1980 r., pozwala im zaoszczędzić dziesiątki milionów dolarów rocznie dzięki automatycznej konfiguracji złożonego sprzętu.
Ten sukces przyciąga uwagę rządów i przemysłu. Japonia rozpoczyna ambitny projekt komputerowy piątej generacji, mający na celu stworzenie maszyn zdolnych do komunikacji, tłumaczenia i rozumowania jak ludzie. Wielka Brytania odpowiada projektem Alvey, a Stany Zjednoczone Strategic Computing Initiative. Równocześnie rozkwita wyspecjalizowany przemysł sprzętowo-programistyczny: stacje robocze Lisp, narzędzia inżynierii wiedzy, platformy do tworzenia systemów eksperckich… Od kilku lat sztuczna inteligencja przeżywa prawdziwy rozkwit. bańka handlowa.
Jednak wkrótce pojawiają się problemy: systemy eksperckie są kosztowne w utrzymaniu, trudne w rozbudowie, niezdolne do uczenia się na podstawie doświadczenia i bardzo zawodne poza kontrolowanym środowiskiem. Pojawienie się wydajnych komputerów osobistych sprawia, że specjalistyczny sprzęt staje się zbędny, a pod koniec lat 80. wielu dostawców sztucznej inteligencji bankrutuje lub zostaje przejętych. Mówi się o nowej zimie sztucznej inteligencji, ale w rzeczywistości następuje restrukturyzacja: sztuczna inteligencja jest integrowana jako zestaw technik w szerszych systemach, zamiast sprzedawać się jako „to” magiczne rozwiązanie.
Renesans subsymboliczny: sieci neuronowe, robotyka i miękkie obliczenia
Podczas gdy świat biznesu patrzył w inną stronę, lata 80. i 90. XX wieku były świadkiem konsolidacji linii badawczych, które są dziś kluczowe. John Hopfield wykazał, że niektóre sieci neuronowe potrafią stabilnie przechowywać i odzyskiwać wzorce; Geoffrey Hinton pracował nad maszynami Boltzmanna i, wraz z Davidem Rumelhartem, spopularyzował propagację wsteczną, algorytm treningowy perceptronów wielowarstwowych, który pozwala im uczyć się złożonych reprezentacji wewnętrznych. Ta druga fala koneksjonizmu ożywiła badania nad… sztuczne sieci neuronowe jako rozproszone modele uczenia się.
Sieci te zaczynają przewyższać stan techniki w określonych zadaniach, takich jak przewidywanie struktur drugorzędnych białek, a w 1990 roku Yann LeCun zastosował sieci splotowe do rozpoznawanie cyfr pisanych ręcznieDoprowadziło to do powstania systemów wdrażanych na masową skalę przez banki i usługi pocztowe. Jest to pierwsze duże zastosowanie nowoczesnych sieci neuronowych w przemyśle.
Tymczasem robotyka przechodzi małą rewolucję koncepcyjną. Naukowcy tacy jak Rodney Brooks i Hans Moravec twierdzą, że osiągnięcie prawdziwej inteligencji wymaga czegoś więcej niż tylko logicznego rozumowania w biurze; wymaga ciała, które postrzega, porusza się i przetrwa w świecie. Proponują architektury „oddolne”, w których zdolności sensomotoryczne są budowane bez uciekania się do uciążliwych reprezentacji symbolicznych, ufając, że Dobra interakcja z otoczeniem stanowi podstawę, na której budowane są wyższe umiejętności poznawcze.Pogląd ten jest powiązany z teorią umysłu ucieleśnionego, która zyskuje coraz większe znaczenie w naukach kognitywnych.
Jednocześnie następuje konsolidacja narzędzi miękkie obliczeniaLogika rozmyta do obsługi koncepcji stopniowych, sieci bayesowskie i modele Markowa do rozumowania probabilistycznego, algorytmy ewolucyjne, modele stochastyczne… Wszystkie te techniki rezygnują z absolutnej precyzji na rzecz możliwości radzenia sobie z niepewnością, szumem i niekompletnymi danymi, co jest bardzo praktyczne w wielu dziedzinach świata rzeczywistego.
W tym środowisku rozwinęło się również nowoczesne uczenie się przez wzmacnianie. Opierając się na koncepcjach psychologów takich jak Thorndike, Pawłow i Skinner, Richard Sutton i Andrew Barto sformułowali ramy teoretyczne oparte na procesach decyzyjnych Markowa i opracowali algorytmy, takie jak uczenie się różnic czasowych (TD). Programy takie jak TD-Gammon uczą się grać w tryktraka na poziomie eksperckim, grając przeciwko sobie bez uprzedniej wiedzy. Dziesięciolecia później warianty tych metod staną się podstawą systemów takich jak AlphaGo i AlphaZeroktóry opanuje skomplikowane gry, takie jak go czy szachy.
Standaryzacja i dojrzałość: inteligentni agenci, duże zbiory danych i Deep Blue
W latach 90. i 2000. wiele technik sztucznej inteligencji przestało być promowanych jako egzotyczne i po prostu stało się standardowe narzędzia W informatyce i inżynierii komputerowej są one wykorzystywane do eksploracji danych, diagnostyki medycznej, logistyki, rozpoznawania mowy, scoringu bankowego i wyszukiwarek, ale rzadko reklamuje się je jako „sztuczną inteligencję”. W rzeczywistości wielu badaczy świadomie unika tej etykiety, aby uniknąć stygmatyzacji porażek i łatwiej pozyskać fundusze.
W tych latach paradygmat inteligentny agentSztuczna inteligencja (AI) to system, który postrzega swoje otoczenie i działa w celu maksymalizacji pewnego stopnia sukcesu. Ta definicja, inspirowana teorią decyzji i ekonomią, pozwala nam ujednolicić bardzo zróżnicowane programy pod jednym szyldem, od kontrolerów robotów po systemy rekomendacji. W publikacjach, takich jak Russell i Norvig, AI jest postrzegana jako badanie tych agentów, koncentrując się na racjonalnym zachowaniu, a nie na obsesyjnym dążeniu do dokładnego naśladowania ludzkiego umysłu.
Moc obliczeniowa rośnie wykładniczo, zgodnie z prawem Moore'a, i to widać. W 1997 roku Deep Blue pokonał Garriego Kasparowa w szachach, łącząc specjalistyczny sprzęt, ogromne możliwości wyszukiwania i ogromną liczbę heurystyk. W latach 2005 i 2007, w ramach wyzwań DARPA dotyczących autonomicznej jazdy, samochody pokonywały setki kilometrów w warunkach pustynnych i miejskich, przestrzegając przepisów ruchu drogowego i reagując na nieoczekiwane zdarzenia. Nie stoi za tym żadna cudowna, nowa teoria, ale raczej ogromny nakład pracy inżynieryjnej i fakt, że teraz… Maszyny są miliony razy szybsze niż w latach 50. XX wieku.
Równocześnie, rozwój internetu i powszechna digitalizacja generują ogromne ilości danych. Pod koniec lat 2000. ludzie mówili już o… big danychi zestawy danych oznaczone jako „Etykietowane twarze na wolności” lub ImageNet Stają się standardami w szkoleniu i ocenie algorytmów widzenia komputerowego. Pojawiają się również wektorowe reprezentacje języka, takie jak word2vec, które kodują słowa w przestrzeniach liczbowych, gdzie proste operacje wychwytują zaskakujące relacje semantyczne.
W 2011 roku system Watson firmy IBM pokonał dwóch głównych liderów Niebezpieczeństwo!Łącząc przetwarzanie języka naturalnego, wyszukiwanie masowych informacji i modele probabilistyczne. Tego rodzaju kamienie milowe jasno pokazują, że Sztuczna inteligencja nie jest już tylko kwestią akademickąale technologia zdolna konkurować z ludzkimi ekspertami w zakresie skomplikowanych zadań.
Rewolucja w uczeniu głębokim i przejście na sztuczną inteligencję ogólną
Przełom nastąpił w 2012 roku wraz z powstaniem AlexNet, głębokiej sieci neuronowej trenowanej na ImageNet, która wygrała konkurs rozpoznawania obrazów ze znacznie mniejszym marginesem błędu niż pozostali uczestnicy. Jej wielowarstwowa architektura splotowa, w połączeniu z technikami takimi jak: spadkowicz i funkcje aktywacji ReLUPokazuje, że przy wystarczającej ilości danych i mocy obliczeniowej (w tym procesorów GPU) głębokie sieci mogą automatycznie wyodrębniać przydatne funkcje, bez potrzeby przeprowadzania ekstremalnych prac inżynieryjnych.
Stamtąd tzw. głęboka nauka Staje się dominującą technologią w rozpoznawaniu mowy, tłumaczeniu maszynowym, analizie tekstu, wizji komputerowej, grach i bardzo długiej liście innych dziedzin. Wiele alternatywnych metod jest porzucanych lub relegowanych do niszowych zastosowań. Badacze tacy jak Geoffrey Hinton wspominają, że w latach 80. i 90. brakowało po prostu oznaczonych danych i mocy obliczeniowej; gdy problem ten został rozwiązany, głębokie sieci pokazały swój potencjał.
Wraz z falą sukcesów, zainteresowanie sztuczną inteligencją ogólną (AGI) – systemami o szerokich i elastycznych możliwościach porównywalnych z ludzkimi (lub przewyższających je) – odżyło. Autorzy tacy jak Nils Nilsson, John McCarthy i Marvin Minsky ożywili debatę, a Ben Goertzel spopularyzował termin AGI, organizując konferencje i publikując dedykowane czasopisma. DeepMind powstał w 2010 roku, OpenAI w 2015 roku, a wkrótce potem pojawili się inni gracze, tacy jak Anthropic, których celem było… modele ogólnego przeznaczenia, które mogą nauczyć się rozwiązywać praktycznie każde zadanie.
W tym samym czasie książki takie jak Osobliwość jest blisko przez Raya Kurzweila lub Superinteligencja Praca Nicka Bostroma przedstawia scenariusze superinteligencji, które mogą radykalnie zmienić społeczeństwo, na dobre lub na złe. Rozpoczynają się poważne dyskusje na temat egzystencjalnych zagrożeń związanych ze sztuczną inteligencją i tzw. problem z wyrównaniemJak sprawić, by systemy o dużej mocy realizowały cele zgodne z wartościami ludzkimi i nie rozwijały niebezpiecznych zachowań w oparciu o czysto instrumentalną logikę.
Modele fundamentalne, sztuczna inteligencja generatywna i rozkwit dużych modeli językowych
W 2017 roku zespół Google opublikował artykuł „Attention Is All You Need”, przedstawiający architekturę Transformer. Jej główną ideą jest mechanizm samouważności, który pozwala każdej części sekwencji „spojrzeć” na wszystkie pozostałe, aby zdecydować, co jest istotne, eliminując potrzebę stosowania złożonych rekursji. Architektura ta szybko stała się standardem dla duże modele językowe (LLM) i później dla modeli multimodalnych.
Uruchomienie OpenAI GPT-3 W 2020 roku opracowano model wytrenowany na ogromnych ilościach nieoznakowanego tekstu, który potrafił pisać, tłumaczyć, programować i odpowiadać na pytania z płynnością, która zaskoczyła nawet wielu ekspertów. DeepMind zaprezentował Gato, „generalistyczny” model, który może sterować robotami, grać w gry wideo lub komunikować się za pomocą tej samej sieci. Modele te nazywane są „fundamentalnymi”, ponieważ stanowią podstawę dla niezliczonych kolejnych zadań z relatywnie niewielkimi modyfikacjami.
Usługa ChatGPT została uruchomiona 30 listopada 2022 r. i w ciągu kilku tygodni pobiła wszelkie rekordy popularności: ponad 100 milionów użytkowników w ciągu dwóch miesięcyStała obecność w mediach i sieciach społecznościowych oraz wysyp kreatywnych zastosowań, od pisania kodu, przez generowanie pomysłów marketingowych, po pomoc w nauce. Reakcja w branży jest natychmiastowa: Google ogłasza „kod czerwony” i przyspiesza rozwój rodziny Gemini, Microsoft integruje technologię OpenAI z Bingiem i innymi produktami, a pojawiają się dziesiątki konkurentów skupionych na generatywnej sztucznej inteligencji.
W tym samym czasie modele obrazu takie jak Stabilna dyfuzjaktóre umożliwiają tworzenie fotorealistycznych lub artystycznych ilustracji z tekstu, a także zaczynają pojawiać się systemy zamiany tekstu na wideo, takie jak Sora, które są w stanie generować klipy trwające do jednej minuty z imponującym poziomem szczegółowości, a także platformy takie jak Instagram integruje sztuczną inteligencję z relacjami Prezentują praktyczne zastosowania sztucznej inteligencji w mediach społecznościowych. Narzędzia takie jak 15.ai już wcześniej zademonstrowały potencjał klonowania głosu na podstawie zaledwie kilku sekund nagrania, co duże firmy później potwierdziły jako technicznie wykonalne.
Wyścig nie ogranicza się do tekstu: pojawiają się modele multimodalne Platformy te łączą w sobie obraz, dźwięk i wideo, a także zaczynają pojawiać się architektury agentowe, w których kilka wyspecjalizowanych modeli współpracuje ze sobą, aby wykonywać złożone zadania niemal autonomicznie. Producenci układów scalonych, tacy jak NVIDIA, stają się gigantami giełdowymi, napędzani ogromnym popytem na procesory graficzne do trenowania i wdrażania tych modeli.
W 2024 roku laboratoria takie jak Anthropic wprowadziły na rynek rodziny produktów, takie jak Claude 3 i Claude 3.5, z lżejszymi wersjami i wersjami o wysokiej wydajności, które konkurowały bezpośrednio z modelami OpenAI i Google. Jednocześnie testowano nowe testy porównawcze, takie jak ARC-AGI, zaprojektowane przez François Cholleta do pomiaru zdolności abstrakcyjnego rozumowania wykraczającego poza samo dopasowywanie wzorców. Modele rozumowania, takie jak OpenAI o3, osiągnęły w tych testach bardzo wysokie wyniki, w niektórych przypadkach przewyższając nawet średnią ludzką, co podsyciło debatę na temat czy zbliżamy się do pierwszych form AGI.
Wpływ społeczny, ryzyko i regulacje dotyczące sztucznej inteligencji
Ten przyspieszony wzrost niesie ze sobą bardzo poważne obawy. Z jednej strony badania autorów takich jak Cathy O'Neil pokazują, jak źle zaprojektowane modele ryzyka przyczyniły się do kryzysu finansowego w 2008 roku. Inne badania ujawniają uprzedzenia rasowe i inne w algorytmach stosowanych w systemie sądowniczym, w procesie rekrutacji i udzielania pożyczek. Skandal wokół systemu COMPAS i jego wykorzystania w wyrokach karnych w Stanach Zjednoczonych wywołał publiczną debatę na temat… równość, przejrzystość i odpowiedzialność algorytmiczna.
Z drugiej strony, rozwój sieci społecznościowych opartych na maksymalizacji interakcji, dezinformacja na dużą skalę Nieuregulowane wykorzystanie danych osobowych rodzi niewygodne pytania o to, w jakim stopniu oddajemy kontrolę nad naszą uwagą i decyzjami nieprzejrzystym systemom rekomendacji i prognoz. Po wyborach w USA w 2016 roku wielu badaczy sztucznej inteligencji przekierowało swoją pracę na kwestie bezpieczeństwa, wyjaśnialności, zarządzania i wartości etycznych.
Jednocześnie wpływowe głosy w branży apelują o ostrożność. W 2023 roku opublikowano list otwarty „Pause Giant AI Experiments”, podpisany przez dziesiątki tysięcy osób, w tym Elona Muska, Yoshuę Bengio i Steve'a Wozniaka, domagający się tymczasowego wstrzymania szkolenia modeli potężniejszych niż GPT-4 do czasu zapewnienia rozsądnych gwarancji kontroli i bezpieczeństwa. Inni eksperci uważają, że całkowite zatrzymanie procesu jest nierealne, ale zgadzają się, że taka przerwa jest konieczna. mechanizmy nadzoru, niezależny audyt i regulacja proporcjonalna do ryzyka.
W sferze politycznej Komisja Europejska proponuje definicje sztucznej inteligencji i ramy regulacyjne Wytyczne te rozróżniają zastosowania wysokiego ryzyka (takie jak masowa identyfikacja biometryczna, system scoringu społecznego czy systemy opieki zdrowotnej i wymiaru sprawiedliwości) oraz zastosowania mniej wymagające. Celem jest umożliwienie innowacji przy jednoczesnym zaostrzeniu wymogów dotyczących przejrzystości, testowania, dokumentacji i nadzoru ludzkiego, w przypadku których awaria mogłaby mieć poważne konsekwencje dla praw podstawowych.
W krajach takich jak Hiszpania krajowe strategie dotyczące sztucznej inteligencji (AI) są wdrażane w ramach szerszych planów cyfryzacji, a inwestycje publiczne i prywatne są przeznaczane na wspieranie projektów w opiece zdrowotnej, przemyśle, transporcie, rolnictwie i administracji publicznej. Oficjalne raporty pokazują, że rosnący odsetek firm wykorzystuje już sztuczną inteligencję do… automatyzuj przepływy pracy, analizuj obrazy, rozpoznaj mowę lub wspieraj podejmowanie decyzjiJednakże wdrażanie tej technologii nadal koncentruje się w sektorach o wysokim stopniu zaawansowania technologicznego.
Równocześnie otwierają się debaty pracownicze dotyczące automatyzacji i zatrudnienia, a także dylematy filozoficzne dotyczące znaczenia inteligencji, kreatywności, a nawet świadomości, skoro istnieją systemy zdolne do generowania tekstów, obrazów, muzyki czy kodu nieodróżnialnego od ludzkiego w wielu kontekstach. Pytanie nie brzmi już tylko, co potrafią maszyny, ale co chcemy, żeby zrobili i na jakich warunkach.
Patrząc na to z perspektywy, historia sztucznej inteligencji to opowieść o starożytnym marzeniu, które przewija się przez mity o metalowych gigantach i glinianych golemach, zostaje sformalizowane w logice i informatyce XX wieku, wielokrotnie potyka się o własne ograniczenia, na nowo się odkrywa za pomocą nowych technik, a dziś przeniknęło do niemal każdego zakątka naszego cyfrowego życia. Zrozumienie tej podróży pomaga lepiej umiejscowić zarówno entuzjazm, jak i wątpliwości wzbudzone przez technologię, której niemal nieświadomie pozwalamy wpływać na to, jak się uczymy, pracujemy, jesteśmy na bieżąco i wchodzimy ze sobą w relacje, a która wymaga, bardziej niż kiedykolwiek, połączenia ścisłość naukowa, odpowiedzialność społeczna i zbiorowy zdrowy rozsądek.
