A mai blogcikkünkben a mesterséges intelligenciával kapcsolatos két fontos eseményéről olvashatnak, amelyek az OpenAI szervezetet érintik. Elsőként azonban fontos említést tenni az ezt megelőző történésekről is.

A mesterséges intelligencia (MI) világában kevés történet volt olyan drámai, mint az OpenAI felemelkedése és közelmúltbeli válsága. A középpontban Ilya Sutskever áll, aki a MI startup társalapítója és egykori vezető tudósa. Sutskever távozása az OpenAI-tól egy korszak végét és egyben a MI fejlesztésének új fejezetét is jelenti.

2019-ben Ilya Sutskever fontos szerepet játszott abban a folyamatban, amely során az OpenAI vezérigazgatóját, Sam Altmant elbocsájották. Abban az időben Sutskever az cég igazgatótanácsához tartozott, így részt vett Altman elbocsájásának a szervezésében. Napokkal később, váratlan fodrulatot vettek az események, Sutskever megváltoztatta az álláspontját. Aláírt egy alkalmazotti levelet, amelyben Altman visszatérését kérték és sajnálatát fejezte ki, a döntésében játszott szerepéért. A nyilvános bocsánatkérés és Altman visszahelyezése rávilágított a vállalaton belüli intenzív belső konfliktusokra. Az események hatására Sutskever-t eltávolították az igazgatótanácsból, helyzete a vállalaton belül tisztázatlan maradt. 

A lépés sokkolta a technológiai közösséget, tekintve Altman központi szerepét az OpenAI-nál fejlesztett és kereskedelmi forgalomba hozott MI technológiákban, beleértve a széles körben népszerű ChatGPT-t. Altman az OpenAI alkalmazottaihoz írt üzenetében elismerte Sutskever óriási  szakmai hozzájárulását, az alabbi üzenettel kijelentve: "Az OpenAI nélküle nem lenne az, ami." Ez a fordulat azonban nem oldotta meg a feszültségeket, Sutskever pozíciója a vállalatnál egyre bizonytalanabbá vált. A két kulcsfigura közötti incidens helyrehozhatatlannak tűnt, Sutskever távozásá pedig várható volt. Távozása előtt Sutskever utalt egy új, személyesen jelentős projektre, jelezve, hogy a MI útja messze nem ért véget.

A napokban Sutskever hivatalosan is bejelentette távozását az OpenAI-tól, blogjában is közzétett üzenetében: "majdnem egy évtized után úgy döntöttem, hogy elhagyom az OpenAI-t". Ugyanakkor azt is elárulta hogy egy új projektbe fogott, amely nagyon személyes jelentőséggel bír számára, de részleteket csak később oszt meg vele kapcsolatban. Jakub Pachocki lesz az új fő tudós az OpenAI-nál, aki korábban kutatási igazgatóként szolgált és irányította a GPT-4 és az OpenAI Five fejlesztését. Felvázolta az új kutatólabor vízióját, amely a "biztonságos szuperintelligencia" fejlesztésének szenteli magát. Az új vállalkozásának az a célja, hogy a MI képességek határait feszegesse, miközben a biztonságot helyezi előtérbe, ami alapvető fontosságú az MI gyorsan fejlődő területén. Az SSI küldetése, amint azt a weboldalán leírták, egyedülállóan fókuszál: az MI képességeinek minél gyorsabb fejlesztésére, miközben biztosítja, hogy a biztonság elsődleges lesz és előtérben áll. Ez a megközelítés a vállalat szerint lehetővé teszi a békés növekedést, megvédi a projektet a csúcstechnológiai újításokat gyakran kísérő rövid távú kereskedelmi nyomásoktól.

Sutskeverhez csatlakoznak ebben a vállalkozásban olyan neves személyek, mint Daniel Gross, az Apple egykori MI vezetője, és Daniel Levy, az OpenAI egykori technikai munkatársa. Ezeknek az iparági szereplőknek az együttműködése megalapozza az SSI küldetésének komolyságát és potenciális hatását. Annak ellenére, hogy a projekt nagy figyelmet kapott, Sutskever vonakodott felfedni az SSI mögötti pénzügyi támogatókat, hangsúlyozva a laboratórium alapvető küldetésére való fókuszt, a pénzügyi részletek helyett. Ez a stratégiai vonakodás az SSI-t független entitásként pozicionálja, amely mentes a külső kereskedelmi nyomásoktól és a menedzsment terheitől.

Sutskever új vállalkozása rámutat a MI úttörők körében egyre növekvő trendre: a specializált, biztonságorientált MI fejlesztésre való törekvés. Ez a trend nem új az OpenAI alumni hálózatában. 2021-ben az OpenAI korábbi alkalmazottai, Dario és Daniela Amodei megalapították az Anthropicot, egy másik MI startupot, amely a biztonság-tudatos MI fejlesztések elkötelezettje, amelyet olyan technológiai óriások támogatnak, mint az Amazon és a Google. Az SSI megalapítása bizonyítja Sutskever tartós befolyását és elkötelezettségét a MI területén, készen áll arra, hogy új irányt vegyen és egy olyan területen dolgozzon, amely személyesen is jelentős számára. Geoffrey Hinton, az "MI keresztapáinak" egyike mellett végzett munkája és az OpenAI-nál betöltött kulcsszerepe megszilárdította hírnevét az MI kutatás és fejlesztés vezető alakjaként. A vállalkozás sikeressége nagyban függ majd attól, hogy képesek lesznek-e új megoldásokat találni az AI biztonságának növelésére, miközben fenntartják a technológiai fejlődés tempóját.

Ilya Sutskever útja az OpenAI-tól a Safe Superintelligence Inc. élére egy dinamikus és gyakran viharos MI ipar tükörképe. Története emlékeztet arra, hogy a biztonság és az etikai szempontok kritikus fontosságúak a technológiai fejlődés szüntelen hajszolása során. Ahogy előrehaladunk, az OpenAI belső küzdelmeiből és Sutskever új vállalkozásából származó tanulságok, kétségtelenül formálni fogják a mesterséges intelligencia jövőjét.

Man Who Revolted Against Sam Altman Just Started His Own Research Lab - Business Insider

OpenAI co-founder who had key role in attempted firing of Sam Altman departs | OpenAI | The Guardian

Photo of Ilya Sutskever, generated with AI

Az OpenAI és Elon Musk kapcsolata tavasz óta a figyelem középpontjába került, ezúttal egy per kapcsán, amely során Musk arra törekszik, hogy az OpenAI visszatérjen eredeti, nyílt forráskódú, nonprofit gyökereihez. Az ügy mögött azonban személyes és üzleti nézeteltérések is meghúzódnak.

Musk, az OpenAI egykori alapító tagja, évekkel ezelőtt arra törekedett, hogy az AI startupot beolvassza a Tesla birodalmába, és ezzel jelentős befolyást szerezzen az AI iparág felett. E-mail váltások szerint ő maga is támogatta az intézmény profitorientálttá válását, mégis most épp emiatt indít pert az OpenAI ellen. Az igazi fordulat azonban az, hogy Musk már nem irányítja a céget, és ez látszólag nem csupán üzleti, hanem személyes sérelmeket is felvet.

Az OpenAI válaszában nyilvánosságra hozott e-mailek szerint Musk már 2016-ban tisztában volt azzal, hogy az OpenAI kevésbé lesz nyílt forrású. Az ügy kibontakozása közben az OpenAI továbbra is jelentős mérföldköveket ér el, például a ChatGPT naponta több mint 100 millió aktív felhasználóval rendelkezik. 

Ez az eset ismét felhívja a figyelmet arra, hogy az AI iparág gyors fejlődése milyen komplex kihívásokat vet fel, és hogy a technológiai óriások milyen mértékben befolyásolják ezen technológiák jövőjét. A per kimenetele még kérdéses, de az biztos, hogy az AI világában zajló hatalmi harcok még sokáig napirenden maradnak.

Telex: Elon Musk beperelte az OpenAI-t

Az OpenAI-nak nyugtái vannak: Elon Musk azt akarta, hogy az OpenAI egyesüljön a Teslával (gizmodo.com)

Image by Dee from Pixabay

AI Megjegyzések a Facebookon! 

A Facebook új funkciója, az "AI kommentelés", lehetőséget ad az AI által generált válaszok küldésére. De vajon ezek az automatizált válaszok helyettesíthetik-e az emberi interakciót? Mennyire vagyunk készek hagyni, hogy egy algoritmus fejezze ki helyettünk az érzéseinket?

Fontos, hogy a technológiai újítások mellett megőrizzük az emberi kapcsolatok és gondolatok értékét. Gondolkodjunk el ezen, és osszuk meg véleményünket! 

#FacebookAI #EmberiKapcsolatok

Forrás: Facebook will let AI generate comments and this is just another sign of the impending apocalypse | TechRadar

Friss Hírek a Tech Világból! A Microsoft és az OpenAI közös projektje, egy 100 milliárd dolláros AI-adatközpont építése!

A "Stargate" nevű AI szuperszámítógép 2028-ra készül el, radikális AI-fejlesztéseket ígérve. A projekt jelenleg a harmadik fázisban, a speciális AI chipek beszerzésénél tart.

Innováció a fenntarthatóság jegyében: a Microsoft atomenergiát is fontolóra vesz a szuperszámítógép táplálásához.

A Microsoft gazdasági növekedése jelentős, a legutóbbi negyedévben 62 milliárd dolláros bevétellel, 18%-os éves növekedéssel. 

Forrás: Microsoft And OpenAI Plan $100B AI-Centric Data Center: Report (crn.com)

Fizetni az AI-ért?

A Google fontolgatja, hogy előfizetési díjat vezet be az AI-t integráló keresési funkciójához. A Financial Times szerint ez a változás jelentős elmozdulást jelentene a keresőóriás részéről, ami eddig hirdetésekkel keresett milliókat. 

Az AI beépítése a keresőbe felveti a kérdést: mi lesz a hirdetésekkel, ha az AI átveszi a helyüket? Alex Hern a Guardian-től így fogalmaz: "A Google kereső pénzt nyomtat. A generatív AI pénzt éget." Kíváncsian várjuk, hogyan oldja meg a Google ezt a kihívást! 

#Google #AI #Technológia #Hirdetések_vs_AI

Forrás: Google Accidentally Admits Something Very Funny About AI (futurism.com)

Finomhangolás a kulcsa az AI-nek!

Nagyszerű hírek az AI világából! Az OpenAI bejelentette, hogy új funkciókat vezet be a finomhangolási API-jába, és kibővíti a testreszabott modellek programját. Ez azt jelenti, hogy a világ vezető cégei mostantól még személyre szabottabb keresőmotorokat fejleszthetnek az OpenAI-val együttműködve. 

 A mai naptól kezdve a fejlesztők nagyobb kontrollt kapnak a finomhangolási folyamat felett, és új módszereket ismerhetnek meg az AI szakértők és kutatók csapatával való együttműködésre a testreszabott modellek építéséhez. 

Például az Indeed, a globális munkaerő-közvetítő és felvételi platform, már használja ezeket a funkciókat a munkakeresési folyamat egyszerűsítésére, és hihetetlen eredményeket ért el a GPT-3.5 Turbo finomhangolásával. 

#OpenAI #AI #CustomAI #Innováció

Forrás: Introducing improvements to the fine-tuning API and expanding our custom models program (openai.com)

Fotó: Airam Dato-on: https://www.pexels.com/hu-hu/foto/kez-okostelefon-kapcsolat-technologia-15940012/

Újdonság a ChatGPT-ben: Emlékező Képesség! 

A ChatGPT mostantól képes emlékezni az előző beszélgetésekre, ezáltal még személyre szabottabbá teszi a kommunikációt. Ezzel a funkcióval többé nem kell ismételgetni az adatokat; a rendszer automatikusan tanul az interakciókból és javítja a felhasználói élményt. 

Minden felhasználó képes irányítani a ChatGPT emlékezetét: eldöntheti, mit jegyezzen meg, mikor felejtse el az információkat, és akár ki is kapcsolhatja ezt a funkciót. 

Biztonság és adatvédelem továbbra is elsődleges: a ChatGPT nem rögzít érzékeny információkat, hacsak kifejezetten nem kérik a felhasználók. További részletekért látogass el a Súgó Központunkba! 

#ChatGPT #Innováció #Adatvédelem

Forrás: Memory and new controls for ChatGPT | OpenAI

A Google bemutatta legújabb mesterséges intelligencia modelljét!

A Gemini 1.5-öt, amely jelentős teljesítményjavulást kínál, különösen a hosszú kontextusú szövegek megértésben. 

Az új modell akár 1 millió token feldolgozására képes egyszerre, ami lehetővé teszi, hogy bonyolultabb és hosszabb tartalmakat is értelmezzen, mint például hosszú videókat vagy kiterjedt kód adatokat. 

A Gemini 1.5 különlegessége a Mixture-of-Experts (MoE) technológia, amely jelentősen növeli a tanulási folyamat hatékonyságát és csökkenti az ehhez szükséges erőforrás használatot. 

Ezek az innovációk új lehetőségeket nyitnak a fejlesztők és vállalati felhasználók számára, hogy új alkalmazásokat hozzanak létre és fejlesszék a vállalkozásokat az AI technológia segítségével.

#ChatGPT #gemini1.5 #openai

Forrás: Introducing Gemini 1.5, Google's next-generation AI model (blog.google)

Sora - egy új mesterséges intelligencia modell 

Képes szövegből valósághű és képzeletbeli jeleneteket generálni videó formájában - akár egyperces videókat is képes létrehozni, amelyek megőrzik a vizuális minőséget és pontosan követik a felhasználói utasításokat. 

Komplex jeleneteket képes generálni több karakterrel és specifikus mozgásokkal, miközben a háttér és a tárgyak részleteit is pontosan ábrázolja. 

A Sora jelenleg fejlesztés alatt áll, és a tesztelés során szakértők ellenőrzik a lehetséges kockázatokat. A biztonsági intézkedések között szerepel tartalom felismerő eszközök fejlesztése és politikai döntéshozók, oktatók, valamint művészek részvétele az etikus technológiai felhasználás elősegítése érdekében.

#sora #ChatGPT #openai #Innováció

Forrás: Sora | OpenAI

Bemutatjuk Gemmát, a Google legújabb innovációját.

Gemma - Ez egy könnyű, élvonalbeli nyílt modellcsalád, amelyet fejlesztőknek és kutatóknak terveztek az AI erejének kiaknázására. A modellek két méretben elérhetőek, 2B és 7B kapacitással. 

A felelős AI fejlesztés támogatására a Google új "Responsible Generative AI Toolkit" eszköztárat is kiadott, amely segít a fejlesztőknek és kutatóknak biztonságosabb AI alkalmazásokat létrehozni. Az eszközök széles körű keretrendszerekkel és hardverekkel kompatibilisek, így a Gemma modellek széles körben elérhetőek és testreszabhatóak lesznek különböző eszközökön.

#gemma #openai #ChatGPT #Innovácio

Gemma: A Google új, csúcstechnológiás nyílt modelleket mutat be (blog.google)

Hogyan hat a mesterséges intelligencia önérzetünkre?

Egy friss tanulmány szerint, amikor az AI pozitív döntést hoz, az emberek kevésbé érzik magukat boldognak, mintha ugyanazt a döntést egy ember hozta volna.

Ha az AI elutasítja őket, érzéseik hasonlóak, mintha egy ember tette volna ezt. 

Ez alapján a vállalatoknak fontos megfontolni, hogy miként integrálják az AI-t a szolgáltatásaikba és üzleti folyamataikba, hogy növeljék az ügyfél- és alkalmazotti elégedettséget. 

Az AI bevezetésekor a cégeknek, aktív emberi részvételt kell biztosítaniuk a folyamatokba, különösen, ha értékelésről vagy döntéshozatalról van szó, mivel ez javíthatja az emberek reakcióját és növelheti a pozitív érzelmeket.

Forrás: How AI Affects Our Sense of Self (hbr.org)

Fotó: Google DeepMind: https://www.pexels.com/hu-hu/foto/18069696/

A generatív mesterséges intelligencia megjelenése akkora média figyelmet kapott, mely azelőtt talán csak az első sikeres önvezető autó prototípusok esetén volt tapasztalható. A mostani „AI-láz” azonban egy fontos további tulajdonsággal rendelkezik: Nem szükséges hozzá egy luxus-kategóriás autó, hogy a hétköznapokban is megtapasztalhassuk hatásait.

Hogyan jutottunk idáig? Miért más a mostani AI forradalom, mint az eddigiek? Mi vár még ránk 2024-ben és azután? Ezekre a kérdésekre keressük a választ az elmúlt évek technológiai fejlődésének szemlézésével.

A mesterséges intelligencia történetét sokan, sokféleképpen tárgyalják, vannak, akik még Kempelen Farkas sakkozó gépéig is visszamerészkednek az időben. Beszélhetnénk a különböző algoritmusokról, tudományos áttörésekről, azonban a mi történetünk talán Stuart Russell és Peter Norvig mesterséges intelligencia enciklopédiájáig nyúlik vissza (közülük Peter Norvig neve ismerős lehet, mint a Google kutatásáért és egy időben a keresőmotor kialakításáért felelős igazgató). A szerzők az „Artificial Intelligence: A Modern Approach” című könyvüket évtizedenként megújítják sorra véve a múlt és a jelen trendjeit, és a jövőbemutató technológiákat. Az egyes kiadások közötti eltérések így érdekes korképet festenek főleg, ha a „jövő mesterséges intelligenciájára” elhangzó elméletek és elvek összességére figyelünk fel. 2003-ban még csak a probléma felvetést olvashattuk. Az AI hatásaira, a gyorsuló fejlődés lehetséges veszélyire hívják fel a figyelmet. 2010-ben megjelent a „Friendly AI”, azaz a barátságos mesterséges intelligencia fogalma is, mely tervezéséből adódóan embereket segítően kell, hogy viselkedjen. 2021-ben pedig eljutunk a bizonyíthatóan előnyös (provably beneficial) AI fogalmáig. A szerzők itt kifejtik, hogy az ilyen mesterséges intelligencia létrehozása nehézkes, ugyanis itt már nem beszélhetünk előre meghatározott célokra betanított rendszerekről, hanem olyan modellekben kell gondolkodnunk, melyek képesek lehetnek az emberi preferenciát is figyelembe venni.
A preferencia pedig:
1. Nem konkretizált cél.
2. Komplex, emberi tudástól függ.
Ők akkor még nem is sejthették, hogy mindössze egy évvel később az OpenAI kutatói megoldják ezt a problémát, és 2022 végére a cég kiadja a ChatGPT első változatát.

Mitől több a ChatGPT, mint az elődök?

A ChatGPT a GPT-3 architektúrára épül, mely egy hatalmas (175 milliárd paraméteres) modell, összehasonlítás képpen, a Gyűrűk Ura trilógia HD rendezői változata kétszer is elférhetne a GPT-3 súlyai helyén és még mindig maradna valamennyi. Itt megjegyzendő, hogy az előző generáció, a GPT-2 egy milliárd alatti paraméterszámmal rendelkezett. A GPT-3 általános és átfogó tudással rendelkezik arról, hogy hogyan is kell szövegeket jellegükre helyesen folytatni, hiszen egyes becslések szerint akár az egész internet minőségibb szövegeinek tizedénél is többet láthatott. Emellett több száz specifikus tudásanyagot tartalmazó adatsort is átpasszíroztak rajta az OpenAI mérnökei, mely egy igen speciális képességgel ruházta fel a modellt. Képes lett a feladatok között általánosítani, így az átfogó ismeretek miatt akár olyan szövegalkotási feladatokat is meg tud oldani, amire soha nem tanították, legfeljebb néhány példát kap a megoldandó feladatokról bemenetként (ez a prompt engineering megszületésének pillanata is, ami, mint szakma még napjainkban is robbanását éli). Láthatjuk, hogy Norvig és Russell első akadályát már maga a 2020-ban kiadott GPT-3 is legyőzi, hiszen képes az emberi írott tudásanyagban elnavigálni, és ez alapján szövegeket folytatni, generálni.

Persze fontos megjegyezni, hogy a GPT-3 önmagában párbeszédre nem alkalmas, sőt még feladatokat végrehajtani sem képes. Klasszikusan rá kell vennünk arra, hogy helyesen működjön.

1. Egy egyszerű példa a ma már ritkábban használt (legacy) GPT-3 alapú "davinci-002" promptolásáról. A modell az instrukciókat nem érti, csupán folytatandó szövegnek tekinti őket és kiegészíti a felsorolást (fent). A feladatot szöveg kiegészítéssé kell átformázni (lent). Az instrukció követő és chat modellek, mint a ChatGPT is, megértik az emberi elvárást és alkalmazkodnak ahhoz az itt látható alapmodellekkel ellentétben.

Egy egyszerű példa a ma már ritkábban használt (legacy) GPT-3 alapú "davinci-002" promptolásáról. A modell az instrukciókat nem érti, csupán folytatandó szövegnek tekinti őket és kiegészíti a felsorolást (fent). A feladatot szöveg kiegészítéssé kell átformázni (lent). Az instrukció követő és chat modellek, mint a ChatGPT is, megértik az emberi elvárást és alkalmazkodnak ahhoz az itt látható alapmodellekkel ellentétben.

Ahogy a fenti példából is látható a GPT-3 esetében még át kell formáznunk a problémát egy tisztán szövegfolytatási feladattá, míg ezt egy ChatGPT esetében felesleges megtennünk.

A megoldás az instrukció követés és a párbeszéd képességek fejlesztésében keresendő. Az OpenAI kutatói ugyanis egy olyan preferencia alapú módszert (RLHF, avagy megerősítéses tanulás emberi visszacsatolással) dolgoztak ki, mely során a célok nem csupán a következő szó meghatározásában merülnek ki, hanem az elvárt válasz minőségének meghatározásában. Ehhez egy olyan értékelő modellt készítettek, mely önmaga is egy GPT-3 másolatként kezdte pályafutását (csak valamivel kisebb volt, visszatérve a Gyűrűk Ura epizódokhoz, ez csak egy HD film helyét veszi el). Ezt a modellt szöveg generátorból átképezték szöveg értékelőre. Ehhez több tucat emberi szöveg értékelő szakembert alkalmaztak, akik a modell különböző válaszait pontozták egy preferencia skálán 1-től 7-ig több tízezer feladat esetén. Az értékelő modell így kérés alapján tud válaszokat osztályozni, tehát értelmezi a bonyolult emberi preferenciákat úgy, hogy alapvető nyelvi, fogalmi tudással már rendelkezik.

Ezután nem volt más dolguk, mint a GPT-3 modellt olyan beszélgetési és instrukció követési feladatok elé állítani, amelyet az értékelő modell le tudott pontozni. A feladat a konkrét szövegfolytatás helyett azonban másképp hangzott: „Adj olyan választ, ami alapján a legjobb értékelést kapod majd!”. Ez természetesen a megerősítéses tanulásban ezelőtt sem volt ismeretlen, ahol gyakorta modellezték az egyes döntések várható kimenetelét (például egy önvezető jármű esetén) egy hasonló értékelő modellel, azonban itt fizikai egyenletek, mechanika, vagy költségek helyett az emberi preferencia modellezése került előtérbe.

2022 novemberétől a történetet talán már mindenki ismeri, hiszen a csapból is ez folyik. A ChatGPT megjelent, tarolt, munkahelyi transzformációt indított el, változást indukált az információ szerzésben és feldolgozásban. Ezek mellett pedig az emberiség talán most először (a gép által legyőzött sakk, go és StarCraft világbajnokokat nem számítva) találkozik egy a sajátjával összemérhető mesterséges intelligenciával. Felmerül a groteszk kérdés, amire talán még egyikünk sem mer őszintén válaszolni: ha a leveleimet az AI fogalmazza listából folyó szöveggé, az ügyfeleim odalán pedig ugyanez a rendszer alakítja listává az én terjengős, udvarias levelemet, akkor nem lett volna egyszerűbb csak a listát elküldeni?

És amíg mi azt latolgatjuk, hogy feladhatjuk-e az etikettet, mint emberségünk egyik védőbástyáját a technológia robog tovább. 2022 óta kiderült, hogy nem csak a nyelvet lehet kis „szavanként” előállítani, de a hang, a kép, az animáció, sőt a robot mozgás is követheti ezt a receptet, ha megfelelően daraboljuk. A legújabb nyelvi modellek már 300-800 milliárd paraméteresek és működésük közben döntik el, hogy ennek a hatalmas tudásanyagnak melyik részét vetik be. A nagyobb gyártók specializált futtató chipeket készítenek, amivel hamarosan a mobiltelefonok is futtatni tudnak majd egy alapszintű chat modellt. A generatív AI rendszerek elkezdtek eszközöket használni, adatbázisokba beleolvasni, sőt a „nem vagyok robot” tesztek megoldására emberi munkaerőt is felvettek. Programozók tömegei tapasztalják félelemmel vegyes áhítattal a copilotok és programozó ágensek által nyújtott villámgyors kódolási lehetőségeket, sőt egyesek már a kutatói munkák részleges, avagy teljes támogatásáról is suttognak.

Norvig és Russell kezdeti problémafelvetésére visszatérve pedig a Claude 3 (mely amúgy az első modell, aminél 100 feletti IQ-t mérnek, jelentsen ez bármit is egy intelligens program esetében) már olyan Constitutional AI (CAI) módszerrel tanult, mely az emberi preferencia osztályozó szakértők szükségét is minimalizálja. Ez a CAI tulajdonképpen egy szabályrendszeren, az „alkotmányon” alapul, mely az emberi preferenciákat, szabályokat, kívánalmakat testesíti meg. Ezek után az AI modell elkezd probléma felvetéseket, és arra adható válaszokat generálni, majd az emberi pontozás helyett egyszerűen értékeli önmagát az alkotmány előírásai alapján előtérbe helyezve a helyesnek ítélt válaszokat, és elnyomva az alkotmányt sértőeket.

A küszöb alatt tehát öntanító, emberivel összemérhető intelligenciájú, de mégis sérülékeny generatív AI modellek kúsznak be napról napra. Nem mindenhatók, nem veszik el mindenki munkáját, de egy újabb alap digitalizációs szintet jelentenek, mint ahogy a webes keresők, a mobiltelefonok, vagy az irodai szoftverek is jelentettek korábban. Hallucinálnak, hiányos a tudásuk, tévednek és néha hibásan érvelnek. Ezekre a problémákra folyamatosan fejlődő válaszokat ad a generatív AI integrációval foglalkozó közösség. A lehetőséget a valós, versenyelőnyt jelentő megoldástól olykor csak néhány hét technológiai fejlődés választja el egymástól, így az AI metódusok naprakész ismerete fontosabb, mint valaha. Ez a feladat hatalmas súlyt ró a szakma mélységeiben tevékenykedő kutatókra, mérnökökre, fejlesztőkre is, azonban az igazán komoly terhet a stratégiáért felelős vállalatvezetők viselik, akiknek most egy teljesen új, nehezen kiszámítható tényezővel kell számolniuk.

Az AI Bridge Hungary-nél blogunk célja, hogy hídként funkcionáljon a technológiai innováció és a vállalati stratégia között, segítve a vezetőket és szakértőket egyaránt abban, hogy megértsék és kiaknázzák az AI-ban rejlő lehetőségeket. Részletesebb, átfogó felmérés, tervezés, integráció esetén pedig multidiszciplináris szakértői csapatunk áll rendelkezésre, hogy a mesterséges intelligencia legújabb fejlesztéseit az Ön vállalatának specifikus igényeihez igazítva biztosítsunk technológiai előnyt a piaci versenyben.

Photo by Matheus Bertelli: https://www.pexels.com/photo/man-working-with-chatgpt-ai-system-16094048/

AI Bridge | MINDEN JOG FENNTARTVA |
ADATVÉDELMI TÁJÉKOZTATÓ
|
IMPRESSZUM