
Mielőtt Elon Musk 2022-ben megvette az akkor még Twitter nevű közösségi platformot, naponta posztolt rajta arról, hogy milyen rosszul működik az oldal, mekkora a cenzúra, és micsoda kormányzati befolyásolás zajlik a színfalak mögött. Mintha csak ezt akarta volna valaki igazolni, 2023-ban néhány alternatív gondolkodó kiadta a Twitter-akták című posztsorozatot, amiket atombombának szántak, de valójában csak érdekes kulisszatitkokról szóltak.
A kommunikációs hibát abban az esetben Musk és a szerzők azzal vétették, hogy már hetekkel korábban elkezdték promózni, hogy mekkora durranásra, soha nem látott titkokra lehet számítani. Ehhez képest az információ nagy része már régóta ismert volt. Ez az eset kicsit megnehezítette a különféle „akták”-nak nevezett projektek életét, de júniusban két, a techipart kutató és ellenőrző nonprofit szervezet, a Midas Project és a Tech Oversight Project megmutatta, hogy máshogyan is lehet ezt csinálni, amikor kiadták az OpenAI-akták című kutatásukat.
Az OpenAI-akták több mint 50 oldalas munka, amiben a szerzők nyilvánosan elérhető információkból és korábbi cikkekből állították össze, mi is a helyzet a mesterséges intelligencia (MI) fejlesztésének élvonalában álló cégnél. Hogy ezt miért gondolták fontosnak? Azért, mert az OpenAI az általános mesterséges intelligencián (artifical general intelligence, AGI) dolgozik, ami lényegében egy olyan MI, ami emberként vagy még annál is fejlettebben tud gondolkodni. A cég szerint ez az egész emberiség javát szolgálná, mert a legtöbb munkát és feladatot rá lehetne bízni.
Ez azonban elég veszélyesnek hangzik, hiszen ahogy a korábbi ipari forradalmakból megtanultuk, az újítást elhozó vállalatok vagy iparágak rendszeresen hirdetik magukat azzal, hogy itt a jövő, minden egyszerűbb lesz, de ritkán foglalkoznak azzal, hogy mi lesz azokkal, akik a fejlesztések révén elveszítik a munkájukat, illetve hogy milyen általánosabb negatív társadalmi hatásaik lehetnek ezeknek a fejlesztéseknek. Eddig ez néhány ágazatra korlátozódott, de az AGI, ha valóban összejön, tényleg rengeteg munkát át tudna venni, így van, aki szerint összeomolhat a társadalom, míg más attól tart, hogy a gép úgy dönt, hogy valójában nincs is szüksége emberekre.
Az AGI még messze van, de már most is érdemes foglalkozni ezekkel a kérdésekkel. Mivel elméletben ekkora változásokkal járhat, sokan úgy gondolják (ahogy például a kutatást végző két szervezet is), hogy etikusan, körültekintően kell eljárni a fejlesztés során. Ezt viszont nem könnyű elvárni egy profitorientált vállalkozástól, aminek a részvényesek érdekei az elsők. Az OpenAI-akták a cégtől egyszer már kirúgott vezérigazgató, Sam Altman ellentmondásos megítélésének és megosztó ügyeinek bemutatására is nagy hangsúlyt fektet.
Teljes pálfordulás
Ahogy az OpenAI-aktákban is olvasható, a cég ebből a szempontból biztatóan indult: 2015-ben nonprofitként kezdtek, azzal a céllal, hogy az AGI az emberiség érdekeit szolgálja. 2019-ben azonban átálltak hibrid struktúrára, amiben a nonprofit alá beraktak egy profitorientált leányvállalatot, így komoly szerepet kapott a részvényesek kifizetése, de ezt maximum százszoros nyereségben korlátozták, és közben jogi korlátokat szabtak maguknak, hogy továbbra is szem előtt tartsák a morális célt: az emberiségért dolgoznak. Ez lényegében azt jelentette, hogy a befektetők minden befektetett dollár után legfeljebb 100 dollárt kaphatnak, és minden fennmaradó nyereség megy a nonprofithoz, azaz gyakorlatilag az emberiségnek.
Mára azonban 300 milliárd dolláros techcéggé váltak, és ezzel a befektetői nyomás is nő. 2025-ben így már azon dolgoznak, hogy teljesen átállnak egy for-profit működési modellre, eltörlik a nyereségi plafont, és megszüntetik az eddig felügyeleti szerepet betöltő nonprofitot.
Pedig annak épp az volt a lényege, hogy ne engedje, hogy a pénz a morális küldetés fölé emelkedjen. Erre elvileg több eszközük is volt, de amikor a ChatGPT piacra dobásával felerősödtek a cégben a profitorientáltabb hangok, a nonprofit igazgatótanácsa megpróbált beleszólni a irányba, és nem őszinte viselkedésre hivatkozva kirúgták Sam Altmant, a cég arcát és a leányvállalat vezetőjét. Ez a kirúgás néhány napig tartott, Altmannek végül mégis sikerült megállapodnia a vezetéssel, és visszavette vezérigazgatói kalapját.
2024-ben aztán bejelentették, hogy változások jönnek, és kikerül a céljaik fókuszából az emberiségközpontú világnézet, és minimum azzal egy szintre emelnék a részvényesek érdekeit. 2025-re ebből már az lett, hogy a cég szerint az átalakulás során megőrzik a nonprofit irányítást, de sokkal korlátozottabb mértékben, és közben zajlik az átállás az új modellre, ami a részvényesek érdekeit a küldetés fölé helyezi.
„Ezért vagyunk nonprofit. Soha nem akarunk olyan döntéseket hozni, amik a részvényesek érdekeit szolgálnák. Csak egy csoportnak akarunk felelősséggel tartozni: az emberiség egészének” – mondta Sam Altman 2017-ben. Idén májusban azonban már más véleményen volt a vezetés:
„Az OpenAI legutóbbi finanszírozási köre során több potenciális befektető is a korlátozott nyereségi struktúra miatt lépett vissza. Ennek fényében a nonprofit igazgatótanácsa az elmúlt évben azt mérlegelte, hogy az OpenAI jótékonysági küldetésének legjobb előmozdítása érdekében hogyan és miként szervezze át a vállalatot.”
Az OpenAI-akták oldalán a szerzők több hasonló idézetpárt is felsorakoztattak. Emellett az alábbiak szerint összegezték a változások lényegét.
A profitplafont azért vezették be, mert a cég látta, mekkora gazdasági, pénzügyi potenciál lapul az AGI-ban, ezért úgy voltak vele, hogy a százszoros nyereség lehetősége bőven elég kéne, hogy legyen a befektetőknek. Greg Brockman, az OpenAI elnöke azt mondta, hogy a kockázat oroszlánrésze az emberiséget terheli, így az a fair, ha a nyereség nagy része a nonprofitba megy, azaz az emberközpontú kutatás-fejlesztésbe. Ebből az elmúlt öt évben semmi nem változott.
Az viszont igen, hogy a befektetők, mint például a SoftBank, közölték a céggel, hogy nem fektetnek be újabb körökben, ha nem nő a potenciális nyeresége. Így pont olyan külső befektetői nyomás éri a céget, amit eredetileg el akartak kerülni. Bár azért hozták létre a profitplafont, hogy megvédjék az emberiség jövőjét a befektetők önös érdekeitől, most feláldozzák a korlátozást, hogy újabb befektetőket tudjanak behúzni. Így az OpenAI elvei végül teljesen a fejük tetejére álltak.
Vezetői integritás, átláthatóság, összeférhetetlenség
Az OpenAI-akták erre a három nagy témára térnek még ki. A szerzők megjegyzik, hogy Altman eddig három nagy cégnél dolgozott, és a magas beosztású alkalmazottak mindháromnál megpróbálták elküldeni. Vagy a „megtévesztő és kaotikus” vezetői stílusa miatt, vagy azért, mert kollégái szerint nem dolgozott, de amikor igen, akkor csak a saját meggazdagodására fókuszált.
Emellett amiatt is megkérdőjelezik az integritását, hogy bár azt állította, hogy nem tud semmit a borzasztóan szigorú titoktartási szerződésekről, igenis aláírt dokumentumokat, amik felhatalmazták az OpenAI-t, hogy a cég megvonja a munkájuk során kapott részvényeiket azoktól a dolgozóktól, akik nem írják alá a titoktartási szerződést. Több beszámoló szerint az igazgatótanácsnak is többször hazudott, például hogy meg tudjon kerülni néhány biztonsági szabályt. De állítólag azt is állította, hogy az egyik igazgatósági tag lemondatna egy másik tagot, amikor nem is volt ilyen konfliktus.
Az átláthatósági aggályok részben az említett titoktartási szerződésekből adódnak. Ezek olyan szigorúak, hogy az alkalmazottak még azután sem mondhatnak szinte semmit, sőt, semmi negatívat az OpenAI-ról, miután felmondtak, különben elveszítik a megszerzett részvényeiket.

Egy másik probléma az egész AGI-vállalás alapjaival volt: ha a nonprofit az emberiség érdekét szolgálja, akkor a biztonságos fejlesztést garantáló csapatnak minden szükséges erőforrást meg kéne kapnia. 2023-ban a cég meg is ígérte, hogy a számítási kapacitása 20 százalékát ennek a részlegnek adja, de ez azóta sem történt meg. Sőt, bármikor kérték a megígért kapacitást, a vezetőség mindig visszautasította a kérvényt.
Az évek során több alkalmazott is jelezte, hogy sok biztonsági probléma van a cégnél. William Saunders például a szenátus előtt vallotta, hogy a cég hiába állítja, hogy nagy figyelmet szentelnek a biztonságnak, valójában többször előfordult, hogy hosszú ideig akkora biztonsági rések tátongtak a kiberpajzsukon, hogy bármelyik fejlesztő bármikor kisétálhatott volna a legfejlettebb modellekkel, hogy – például – átadja azt egy konkurens cégnek vagy államnak. Ez alapján talán nem meglepő, hogy csak egy évvel azután ismerték be, hogy súlyos kibertámadás áldozatai voltak, hogy egy hekker rengeteg adatot ellopott az MI-technológiájukról.
Egy másik, hasonló probléma az volt, hogy ugyan a cég megígérte, hogy mindent megtesznek, hogy az új modelljeiket csak akkor élesítik, amikor azok átestek a fontos biztonsági felméréseken, de az alkalmazottak szerint ezt egyáltalán nem tartották be. Volt, hogy előbb tartották meg a GPT-4 Omni indulását ünneplő bulit, mint hogy a biztonságért felelős csapat egyáltalán elvégezte volna a vizsgálatokat. Mikor egy alkalmazott az igazgatótanácshoz fordult, hogy megossza velük a biztonsággal kapcsolatos aggályait, állítólag kirúgták. Az OpenAI ezt tagadja.
Az OpenAI-akták szerzői szerint a negyedik problémás kérdéskör a cég körüli összeférhetetlenségi aggályok. A működést jelenleg elvileg meghatározó nonprofit igazgatótanácsa tele van olyanokkal, akiknek olyan cégekben is vannak érdekeltségeik, amik egyértelműen profitálnak az OpenAI sikeréből, de mivel a konkrét cégben nincs részvényük, függetlenként vannak megnevezve. Emellett Altman ugyan korábban azt állította, hogy nem fűzik pénzügyi érdekek a céghez, az 1,6 milliárd dolláros (553 milliárd forintos) vagyonának egy jelentős részét olyan cégekbe fektette, amik az OpenAI fontos partnerei, mint például a Retro Biosciences és a Rewind AI, amik maguk is jól járnak, ha az OpenAI sikeres. Ez a szerzők szerint olyan probléma, amit hiába jeleztek már többen is a cég felé, nem úgy tűnik, hogy bármiféle megoldást akarnának rá találni.
Az úttörőnek szigorúbb szabályokat kell betartania
Az OpenAI-iratok szerzői szerint mivel a cég valami olyanon dolgozik, ami óriási, egyelőre felmérhetetlen hatással lenne az emberiségre, szigorúbb szabályoknak kell, hogy megfeleljen, mint egy sima techcég. Emiatt úgy látják, hogy változásra van szükség
- a vezetői struktúrában, hogy a döntéshozók felelősségük teljes tudatában, minden biztonsági kérdést mérlegelve döntsék el, milyen irányba halad a cég;
- a vezetők etikus felelősségében, mert olyan döntéshozókra van szükség, akiknek az integritásuk megkérdőjelezhetetlen, és nincsenek velük kapcsolatban összeférhetetlenségi aggályok;
- a jutalmazási rendszerben, hogy a korábban lefektetett célok, azaz „az emberiség mindenek előtt”-jellegű hozzáállás valóban a cég fókuszában maradjon.
A teljes tanulmányt további példákkal, aggályokkal és forrásokkal itt megtalálja.