Gary Marcus odhaľuje temnú stránku ChatGPT a AI boomu

od TechPulz
Temná stránka AI chatGPT

Obsah

Úvod

Ubehlo dva a pol roka od chvíle, keď ChatGPT od OpenAI zásadným spôsobom formoval verejnú diskusiu o umelej inteligencii. Médiá, investori a široká verejnosť odvtedy zažili lavínu nadšenia, ktorá posunula akciové trhy aj spoločenské očakávania na rekordné úrovne. No kým mnohí vidia v generatívnej AI univerzálny nástroj pre produktivitu a kreativitu, stále existujú výrazné skeptické hlasy. Najhlasnejším z nich je americký kognitívny vedec, spisovateľ a podnikateľ Gary Marcus, ktorý dlhodobo tvrdí, že hype okolo veľkých jazykových modelov maskuje vážne technické limity, etické riziká a nedostatočnú robustnosť súčasnej technológie. V tomto článku sa pozrieme, prečo Marcus – aj po toľkom čase – zostáva „veľkým pochybovačom“, aké argumenty predkladá a čo jeho kritika znamená pre budúcnosť regulácie, výskumu a trh s umele­nou inteligenciou.

Gary Marcus: profil skeptika

Gary Marcus si vybudoval reputáciu ako “friendly contrarian” – človek, ktorý miluje vedu, no nebojí sa plávať proti prúdu. Pôsobil ako profesor psychológie na Newyorskej univerzite, založil startup Geometric Intelligence (neskôr odkúpený spoločnosťou Uber) a od roku 2019 publikuje bestsellerové knihy o tom, prečo sú súčasné neurónové siete fascinujúce, no nie dostatočné na vytvorenie skutočne všeobecnej inteligencie. Marcusova kritika vychádza z hlbokej expertízy v kognitívnej vede – tvrdí, že ľudský rozum nie je len štatistický prediktor ďalšieho slova, ale komplexná súhra symbolického uvažovania a kauzálneho chápania sveta. Podľa Marcusa veľké jazykové modely, akým je ChatGPT či Claude, síce sprostredkujú pôsobivú ilúziu chápania, no v skutočnosti „hádajú“ odpovede na základe korelácií v dátach. Práve tento rozdiel medzi povrchovým výkonom a skutočnou kogníciou považuje za hlavnú prekážku k naplneniu sľubov Silicon Valley o „AGI do piatich rokov“.

AI eufória verzus skeptická perspektíva

Pokiaľ Silicon Valley živí príbeh o tom, že gen­er­a­tívna AI prinesie svet bez rutinných úloh, Marcus pripomína príliš skoré adopčné cykly internetových bublín z roku 2000 či kryptománie 2018. Poukazuje na to, že modely vyžadujú obrovské množstvo výpočtových zdrojov, ktoré nie sú energeticky ani ekonomicky udržateľné, a najmä na to, že spoľahlivosť výstupov je nestála. Jazykové modely halucinujú údaje, generujú právne či medicínske rady s potenciálne nebezpečnými dôsledkami a sú náchylné na “prompt injection” útoky. Kým investičné fondy nalievajú miliardy do AI startupov, Marcus žiadal už v roku 2023 pred americkým Senátom, aby sa kládla väčšia váha na testovanie, certifikácie a záväzné bezpečnostné normy. Podľa neho práve chýbajúca kontrola kvality môže napokon obrátiť verejnosť proti technológii a zlomiť jej politickú podporu skôr, ako stihne dosiahnuť sľubované prínosy.

Senátne vypočutie 2023 a jeho dosahy

Historický moment prišiel 16. mája 2023, keď Marcus sedel bok po boku so samotným Samom Altmanom, šéfom OpenAI, na pôde Výboru pre justíciu amerického Senátu. Obaja, hoci z odlišných pozícií, vyzývali zákonodarcov, aby neignorovali transformačný potenciál AI. Kým Altman hovoril o “povinnom licencovaní modelov nad určitú prahovú kapacitu”, Marcus apeloval na prepojenie regulačného rámca s akademickou transparentnosťou a nezávislým auditovaním. Jeho prejav zdôraznil tri body: potrebu red-teamingu proti zneužitiu, nutnosť verej­nej databázy bezpečnostných incidentov a zákaz utajovania tréningových dát pri systémoch, ktoré sa nasadzujú v kritickej infraštruktúre. Marcus vytvoril kontrast k optimistickej vízii, keď upozornil, že „bez pevných pravidiel demokratického dohľadu môže AI posilniť monopolnú moc korporácií a prehlbovať nerovnosti“. Jeho ostré, no konštruktívne argumenty zaujali politikov naprieč stranami a prispeli k vzniku diskusného návrhu AI Accountability Act, ktorý doteraz prechádza legislatívnym procesom.

Regulácia a bezpečnosť

Po senátnom vypočutí sa Marcus stal vyhľadávaným hlasom v debatách o bezpečnosti AI a jeho názory sa premietli do podoby konkrétnych legislatívnych návrhov. Tvrdí, že bez povinného testovania „v reálnych podmienkach“ zostanú riziká halucinácií a prompt-injection tolerovanou chybou systému. Navrhuje dvojúrovňový mechanizmus: prvá úroveň by stanovila minimálne povinné bezpečnostné skúšky pre každý komerčný model nad určitým výkonom FLOPS; druhá úroveň by vyžadovala certifikáciu nezávislými laboratóriami pri nasadení do zdravotníctva, bankovníctva či kritickej infraštruktúry. Okrem technických testov Marcus presadzuje aj povinné zverejňovanie dát o energetickej náročnosti a uhlíkovej stope, pretože gigawattové spotreby tréningu môžu podkopať klimatické ciele. V poslednom rozhovore pre MIT Technology Review varoval, že „bez zodpovednosti sa AI môže stať digitálnym ekvivalentom derivátov pred krízou 2008 – inovatívnym, lukratívnym, ale systémovo nebezpečným“.

Reakcie Silicon Valley

Odpoveď technologickej komunity na Marcusove výzvy je rozpoltená. Niektoré firmy ako Anthropic, Cohere a OpenAI začlenili systematické red-teamingové testy a zriadili etické rady, aby predišli reputačným škodám. Iné, prevažne menšie startupy, však považujú požiadavky na certifikáciu za prehnanú brzdu inovácií. Elon Musk označil Marcusovu skepsu za „paranoidnú“, argumentujúc, že rýchle iterácie produktov sú kľúčom k bezpečnejšej technológii, pretože feedback cyklus použí­vateľov odhalí chyby skôr ako formálna byrokracia. Rizikový kapitál reagoval únikom investícií do „regulatory-tech“ riešení – platformy, ktoré sľubujú automatizované auditovanie modelov podľa pripravovaných noriem. Podľa zdrojov portálu The Information už takmer štvrtina nových AI seed kôl obsahuje kapitolu „compliance budget“, čo naznačuje, že Marcusova argumentácia preniká do investičných term-sheetov, aj keď ju verejne mnohí lídri bagatelizujú.

Budúcnosť generatívnej AI

Marcus nepopiera prínosy veľkých jazykových modelov, no trvá na tom, že „strop ich schopností naráža na fundamentálne limity štatistického učenia“. Predpovedá, že najbližších päť rokov bude rozhodujúcich – buď sa výskumníci posunú k hybridným architektúram spájajúcim symbolické a neurónové prístupy, alebo sa hype krivka preklopí do obdobia sklamania podobného AI zimám z minulosti. V praktickej rovine očakáva explóziu niche modelov prispôsobených konkrétnym odvetviam, kde menšie kontextové okná a kompaktnejšie dátové množiny postačia na špecializované úlohy. Paralelne sa podľa neho rozbehne sekundárny trh licencovania tréningových súborov, keďže regulácie prinútia transparentne deklarovať pôvod dát. Marcus verí, že úspech budúcich systémov sa bude merať presnosťou a zodpovednosťou, nie veľkosťou počtu parametrov.

Záver

Gary Marcus zostáva po dvoch a pol roku de-facto „ombudsmanským hlasom“ v AI odvetví, pripomínajúc, že technologický pokrok bez kritickej reflexie môže skĺznuť do technoptimistickej slepej uličky. Jeho požiadavky na audit, transparentnosť a symbolickú integráciu nie sú len brzdením inovácií, ale aj snahou vytvoriť pevné základy, na ktorých môže AI bezpečne rásť. Či sa priemysel rozhodne prijať alebo ignorovať tieto výzvy, ukáže nasledujúce desaťročie, keď sa z laboratórií naozaj začnú dostávať systémy s potenciálom ovplyvniť infraštruktúru, zdravie i politiku. Jedno je však isté: bez skeptikov, akým je Marcus, by diskusia o AI bola neúplná, a regulátori by možno prehliadli kľúčové slabiny, ktoré môžu rozhodnúť o tom, či bude generatívna inteligencia požehnaním alebo rizikom pre spoločnosť.

Môže sa vám tiež páčiť

Na TechPulz sledujeme, čo je nové, vzrušujúce a mení svet technológií. Od najnovších smartfónov, gadgetov a herných konzol až po vývoj umelej inteligencie, kybernetickej bezpečnosti a vesmírnych objavov – sme tu, aby sme vás držali v obraze. Naša misia je jednoduchá: prinášať vám aktuálne novinky, recenzie, porovnania a tipy, ktoré vám pomôžu lepšie sa orientovať vo svete technológií.

Pripojte sa k nám a nechajte sa vtiahnuť do pulzujúceho sveta technológií!

 

Odber Noviniek

Registrujte sa do nášho Newslettera. Zostaňte informovaní!

TechPulz © 2024 Novinky zo Sveta Technológií – Všetky práva vyhradené. Vytvoril KapralMedia