Ismét a Google fújja a passzátszelet az AI-versenyben

Heves árfolyam-reakcióval indult meg az Alphabet (a Google anyacége) részvényeinek jegyzése északi irányba május 10-én, és ennek jó oka volt, hiszen aznap tartották a Google I/O-t, a Google szokásos éves fejlesztői konferenciáját, Mountain View-ban. A techvilág lélegzetvisszafojtva várta, vajon képes lesz-e a sorozatos pofonokat követően – amiket jórészt az OpenAI osztott ki – kiállni és megmutatni, hogy valóban ők-e a királyok AI-képességek terén, és a Google nem okozott csalódást.

A Google árfolyama az elmúlt két napban majdnem tíz százalékot emelkedett, ami különös lehet azok számára, akik nem követik az eseményeket, hiszen ilyen mértékű hirtelen mozgásokat nagyon ritkán látni a piacokon. A mozgások oka nem más, mint a Google éves fejlesztői konferenciája, ahol a vállalatminden várokozást felülteljesített.

Hogy is volt, mi is volt?

Nem sokat teketóriáztak, rögtön a konferencia elején ledobták a virtuális atombombát: a keresőcég bejelentése szerint kifejlesztettek egy új, nagy nyelvi modellt, ami PaLM 2 nevet kapta a korábbi PaLM után (úgy tűnik, a Chat GPT-hez hasonlóan, csak a verziószámokat növelik).

A modell jártas a matematikában, a szoftverfejlesztésben, a nyelvi fordítási érvelésben és a természetes nyelv generálásában.

„Jobb, mint a korábbi, legmodernebb nyelvi modelljeink”

– mondta Sundai Pachai, a Google vezérigazgatója.

Az igazi áttörést a paraméterek száma jelentette, de előtte fontos tisztázni mit is jelentenek ezek a paraméterek.

Az LLM-ek (Nagy Nyelvi modellek) paramétereinek számának növelése egyszerűen javíthatja a teljesítményt a képzés során, mert ez könnyebbé teszi a modell számára, hogy bonyolultabb mintákat és összefüggéseket tanuljon meg az adatokból.

Azonban van egy sajnálatos trade-off, minél nagyobb a paraméterszám, annál több számítási kapacitást és memóriát igényel  a futtatásuk használatban.

Ez mit is jelent? Egy példa: : a GPT-3 175 milliárd paraméteres LLM futtatásához minimum 100 ezer dollárnyi hardware-re lenne szükségünk, míg egy 15 milliárd paraméteres akár egy 4000 dolláros videókártyán is elketyeg, azaz a kisebb méret fajlagosan olcsóbb.

Analogikusan úgy kell elképzelni ezt, mintha az agyunk térfogatát növelnénk, és ezáltal nyilvánvalóan intelligensebbé válnánk, azonban a megnövekedett agytérfogat megnövekedett energiaigénnyel jár.

A Google kutatómunkája szerint a mostani modell mindössze 15 milliárd paraméteres és jobban teljesít a különböző teszteken, mint elődje annak ellenére, hogy a paraméterszám a PaLM 1-hez képest harmincadára csökkent. Ennek akkor lesz jelentősége, amikor a Google API formában publikussá teszi a modellt, így ugyanazt a tudást töredékáron fogják tudni kínálni az OpenAI-hoz képest. A PaLM-2 15 milliárd paraméterével több mint tízszer kisebb a nála képességekben megegyező GPT-3.5-nél, és mivel a számítási nehézség lineárisan növekszik a paraméter számmal a Google előreláthatólag akár tízszer olcsóbban is tudná kínálni a saját AI-át.

A Google egy újfajta architektúrával tudott szintet lépni, viszont korábbi hibájukból tanulva nem lesz közkincs, mint anno a Transformer volt.

A Google 2017-ben adta ki minden idők legtöbbet hivatkozott AI kutatási munkáját amiben bemutatták a Transformert, egy új neurális hálózati architektúrát, amely hatalmas lépés volt az azt megelőzőekhez képest hatékonyság terén.

A mostani 2022-23-as AI boom, résztvevői mind ezt a architektúrát(szerkezet) használják, az OpenAI GPT 3.5-je is, ami 2022 novembere óta ámulatban tartja a világot.

AI-szakik

A Google különböző “szakértő” modellekkel is kísérletezett, amiket külön szakmaspecifikus adatokkal “finomhangolták” (fine-tuneolták), mint például a Med-PaLM 2(Medical PaLM), ami orvosi ismeretekre van hangolva. A finomhangolásnak köszönhetően a Med-PaLM 2 „szakértői” szinten teljesített az orvosi záróvizsga-jellegű kérdésekben, és jelenleg a legfejlettebb LLM-doktor.

Sundai Pichai elmondása szerint a Google elkezdett dolgozni azon, hogy a Med-PaLM-2 képeket is fel tudjon dolgozni, ezáltal is pontosabbá téve a diagnózisát, és bár nyíltan nem mondta ki, de akár az egészségügyi piacra is fontolgatják a betörést.

AI-termékek

Több mint 20 Google-termék használja majd a PaLM 2-t aminek a legkisebb verziója akár mobilon is futhat.

A Google “Office-a”, a Workspace hamarosan lehetővé teszi a felhasználók számára, hogy teljes dokumentumokat generáljanak, és táblázatokat töltsenek ki mesterséges intelligencia segítségével.

A Google „Help Me Write” funkciója, amely esszéket és értékesítési bemutatókat írhat, minden ember számára elérhető lesz a Google Dokumentumokban – közölte a vállalat szerdán.

A Google Slides képes lesz mesterségesintelligencia-képeket generálni az alkalmazáson belül.

Az új funkciók még ebben az évben elérhetők lesznek a Duet AI nevű szolgáltatás előfizetői számára.

Gemini-A GPT-4 rémálma

Nemrég a Google a két AI-csapatát egyetlen egységbe, a Google DeepMind-ba vonta össze, és közösen használják a Google számítási kapacitását új projektek véghezviteléhez, nem külön-külön egymással versenyezve, ahogy eddig tették.

Ez magában foglalja a következő generációs modellünket, a Geminit is, amely még képzés alatt áll. A Geminit az alapoktól kezdve úgy hozták létre, hogy multimodális (hangot, képet, és szöveget is értelmezni képes legyen. A modell külön memóriát is kap és a tervezésre is megtanítják.

“Bár még korai verziója van meg a modellnek, máris olyan lenyűgöző multimodális képességekkel találkozunk, amelyek a korábbi modellekben nem voltak tapasztalhatóak.”

– mondták a Google mérnökei.

A finomhangolás és a szigorú biztonsági tesztelés után a Gemini különféle méretekben és képességekben lesz elérhető, akárcsak a PaLM 2.

Megreformált keresés

A Google Search jelentős frissítést fog kapni az úgynevezett AI-pillanatképek formájában. Ha bekapcsoljuk a Search Generative Experience (SGE) nevű új funkciót, bizonyos lekérdezések esetén a mesterséges intelligencia által vezérelt válaszok megjelennek a keresési eredmények legtetején, amelyek további kontextust biztosíthatnak a kereséshez.

A változás vitathatatlan következményeként csökkeni fog a kattintások száma, ami a Google keresési bizniszének fog ártani. Úgy tűnik a Google vezetői úgy döntöttek, hogy elébe mennek a változásnak és saját maguk fogják “diszruptálni” az üzletüket, minthogy egy másik cég csinálja.

Konklúzió

Hatalmas várakozásoknak kellett megfelelnie a Googlenek a konferencián, de a techóriás állta a sarat, és megmutatták, hogy még mindig teljes testhosszal vezetnek az AI-versenyben.

A PaLM 2-őt nem túlzás kisebbfajta áttörésnek nevezni és nem lepődnék meg, ha ez alkalommal a Microsoft adná ki a vörös jelzést, mint ahogy anno a Google tette.

A cikk szerzője Markovics Áron

Miért van végveszélyben, a kihalás szélén a SaaS?

Egy hárombetűs ragadozó sodorhatja veszélybe, név szerint az LLM-ek (Large Language Models). Barátkozzunk ezzel a rövidítéssel, ugyanis pár évig ez fog a csapból is folyni.


Posted

in

by

Tags: