Hamarosan megérkezik az AGI, de nem a ChatGPT formájában.


Az OpenAI GPT-5 debütálása újraélesztette a diskurzust a mesterséges intelligencia területén: vajon már megérkeztünk a mesterséges intelligencia fejlődésének végső határához, vagy csupán a gyakorlati kihívásokkal szembesülünk?

Bár a GPT-5 bizonyos területeken fejlődést hozott, sok felhasználó és szakértő úgy érzi, az igazi áttörés elmaradt. Ez új kérdéseket vet fel a nagy nyelvi modellek (LLM-ek) jövőjével és a mesterséges általános intelligencia (AGI) elérésének lehetőségével kapcsolatban. Minderről Sabine Hossenfelder publikált egy videót, amelyben azt vizsgálja, vajon tényleg beleütköztünk-e egy falba, és hogy az AGI hajszolása nem pusztán egy délibáb kergetése-e, miközben tonnaszám szórjuk a pénzt útközben.

A videóban két friss kutatási tanulmány eredményeit ismerhetjük meg, amelyek rávilágítanak arra, hogy a méret növelése nem feltétlenül vezet a várt áttörésekhez. Az első tanulmány újraértékeli azokat a skálázási törvényeket, amelyek korábban nagy reményeket ébresztettek az MI fejlődésével kapcsolatban. Ezen számítások alapozzák meg azokat a jól ismert előrejelzéseket is, amelyek szerint 2027-re egy "intelligenciarobbanás" várható.

A legfrissebb kutatások azonban fényt derítettek egy komoly problémára: a nagy nyelvi modellek, mint például a ChatGPT, hibaarányának csökkentése sokkal bonyolultabb feladat, mint ahogyan azt korábban feltételezték. A pontos adatok szerint a modellhibák tízszeres csökkentéséhez körülbelül 10²⁰-szoros számítási teljesítményre lenne szükség. Ez az energiaigény olyan mértékű, hogy – ahogy a tanulmány humorosan megfogalmazza – "egy galaxis méretű naperőmű" lenne szükséges a cél eléréséhez.

Az, hogy elméletileg tényleg nincs felső határa a skálázhatóságnak, de a számítási igény olyan extrém, hogy az a gyakorlatban már átléphetetlen falat jelent.

Ez segít megmagyarázni, miért nő a szakadék az elméleti optimizmus és a valós felhasználói tapasztalatok között - még a legfejlettebb modellek is gyakran hibáznak, néha bosszantóan egyszerű helyzetekben is.

A második tanulmány az LLM-ek érvelési képességeit vizsgálja, különösen a "gondolatlánc"-módszert, amelynek célja, hogy a modellek többlépéses logikai folyamatok segítségével oldják meg a problémákat. Az eredmények ezen a területen is kiábrándítóak:

Az LLM-ek nem tudják általánosítani az érvelési képességeiket azon túl, amit a betanítás során láttak.

Gyakran megesik, hogy a modell ugyan pontosan végigjárja a logikai folyamatokat, mégis téves eredményt produkál. Más esetekben pedig éppen fordítva: a helytelen érvek alapján mégis sikerül helyes megoldást nyújtania.

A tanulmány szerzői így fogalmaznak:

Az LLM-ek működése olyan, mint egy illuzórikus délibáb: mesterien utánozzák a nyelvet, de valójában nem rendelkeznek valódi logikai megértéssel.

Más szavakkal kifejezve: az LLM-ek nem végeznek valódi gondolkodást, csupán minták összeillesztésével működnek. Ez a megállapítás összhangban van az Anthropic által végzett kutatásokkal, amelyek rámutattak arra, hogy a modellek által létrehozott gondolkodási folyamatok gyakran nem állnak szoros kapcsolatban a végső kimenettel.

Ez a helyzet tehát mélyen elgondolkodtató, amikor a mesterséges intelligencia jövőjéről van szó, és különösen aggasztó képet fest azok számára, akik az általános mesterséges intelligencia (AGI) elérését a modellek méretének egyszerű növelésében látják. Mit is jelent ez valójában? Azt, hogy a valódi gondolkodás fejlődése nem következik be varázsütésre; nem elég csupán annyit tenni, hogy több paramétert, több adatot vagy nagyobb számítási kapacitást rendelünk a modellekhez. A mesterséges intelligencia komplexitása és mélysége sokkal inkább a minőségi fejlődésről szól, mintsem a mennyiségi bővítésről.

Éppen ezért a kutatók szerint az AGI nem lehetetlen, de az eléréséhez teljesen új megközelítésekre lesz szükség - a skálázás önmagában nem elegendő.

Egyre több szakértő - köztük a tanulmányokat bemutató Sabine Hossenfelder is - azon a véleményen van, hogy a nyelv alapú tanulás zsákutca. Ahogy Gary Marcus kognitív tudós is gyakran hangsúlyozza:

"A nyelv sosem tudja teljes mértékben megfogni a valóság lényegét."

Az igazi intelligencia lényege a világgal való aktív kapcsolat és interakció, ami magában foglalja a hipotézisek folyamatos tesztelését és az alkalmazkodás képességét. Ebből az alapból kiindulva a jövő talán a "világmodellek" korszakát hozza el - olyan mesterséges intelligencia rendszerekét, amelyek nem csupán szöveges információkból nyernek tudást, hanem valós vagy szimulált környezetekben is képesek tapasztalatokat gyűjteni és tanulni.

A DeepMind Genie 3 egy izgalmas új példa, amely megmutatja, hogyan képes a mesterséges intelligencia virtuális környezetekben tanulni, ezzel pedig egy lépéssel közelebb kerülni a valódi megértéshez, messze túl a csupán minták utáni másoláson. Ez a modell igazán lenyűgöző: nem csupán szöveget vagy képeket hoz létre a megadott parancsokból, hanem egy teljesen bejárható világot generál. Bár ezek a virtuális tájak csak néhány percig élvezhetők, mégis elképesztő, hogy a rendszer milyen innovatív lehetőségeket kínál.

Egyszerűbben fogalmazva: a valódi mesterséges intelligencia kifejlesztésének kulcsa valószínűleg nem a meglévő modellek "tuningolásában", hanem új, innovatív tanulási módszerek kidolgozásában rejlik. Olyan rendszerekre van szükség, amelyek aktívan interakcióba lépnek a környezettel, tanulnak a tapasztalataikból, és képesek valódi alkalmazkodásra.

Related posts