OpenAI, Google a Anthropic spoja sily proti kopírovaniu modelov umelej inteligencie zo strany Číny či Ruska
Americké technologické spoločnosti OpenAI, Anthropic a Google začali spolupracovať, aby zabránili čínskym konkurentom kopírovať výsledky z najmodernejších amerických modelov umelej inteligencie, a získavať tak výhodu na globálnom trhu. S odvolaním sa na informované zdroje o tom informovala agentúra Bloomberg.
Spoločnosti si vymieňajú informácie prostredníctvom neziskovej organizácie Frontier Model Forum, ktorú tieto firmy založili spoločne s firmou Microsoft v roku 2023.
Napodobňovanie konkurencie
Cieľom Frontier Model Forum je odhaliť pokusy o tzv. adversarial distillation - neautorizované napodobňovanie modelov v rozpore s podmienkami používania.
Ojedinelá spolupráca ukazuje, že firmy majú vážne obavy z toho, že niektorí používatelia, najmä v Číne, vyvárajú napodobeniny ich produktov.
Takéto napodobeniny môžu znižovať ceny, spôsobiť odliv zákazníkov a zároveň predstavovať riziko pre národnú bezpečnosť. Neautorizované kopírovanie stojí laboratóriá v Silicon Valley každoročne miliardy dolárov, uvádzajú odhady amerických úradov.
Distillation, doslova destilácia, je technika, pri ktorej sa starší model AI nazývaný učiteľ používa na trénovanie nového modelu - študenta. Ten tak dokáže robiť podobné veci ako pôvodný systém, no často oveľa lacnejšie ako by stálo vytvorenie nového modelu od začiatku.
Niektoré formy destilácie sú bežné a podporované, napríklad keď firmy vytvárajú menšie a efektívnejšie verzie svojich vlastných modelov, alebo umožnia vývojárom využiť destiláciu na tvorbu nekonkurenčných technológií.
Problémy však nastávajú, keď destiláciu využívajú tretie strany, ako je Čína a Rusko, na nelegálne kopírovanie chránených technológií.
Popredné americké laboratóriá pre AI varujú, že zahraniční konkurenti by touto technikou mohli vyvíjať modely AI bez bezpečnostných obmedzení, teda že napríklad tieto modely nezabránia užívateľom vytvoriť smrtiaci vírus alebo iné nebezpečné technológie.
Väčšina modelov, ktoré vyvíjajú čínske laboratóriá, je tzv. open weight, čo znamená, že časti ich základného systému AI sú verejne dostupné a ktokoľvek si ich môže zadarmo stiahnuť a používať na svojich platformách.
Miliardové investície
To predstavuje ekonomickú výzvu pre americké firmy, ktoré svoje modely chránia a spoliehajú sa na to, že zákazníci budú platiť za prístup k ich produktom. Takto sa snažia pokryť stovky miliárd dolárov, ktoré investovali do dátových centier a ďalšej infraštruktúry.
Destilácia sa dostala do pozornosti v januári 2025 po uvedení modelu R1 čínskou firmou DeepSeek, ktorý svet umelej inteligencie ohromil. Čoskoro potom Microsoft a OpenAI vyšetrovali, či start-up neoprávnene nevyužil dáta z amerických modelov.
Vo februári spoločnosť OpenAI upozornila americký Kongres, že DeepSeek pokračuje v sofistikovaných pokusoch získavať výsledky z jej modelov a že používa destiláciu k vývoju novej verzie svojho chatbota.
Zdieľanie informácií medzi americkými podnikmi zameranými na umelú inteligenciu o neautorizovanom napodobňovaní modelov pripomína bežnú prax v oblasti kybernetickej bezpečnosti, keď si firmy pravidelne vymieňajú údaje o útokoch a postupoch útočníkov, aby posilnili ochranu svojich sietí.
Spojením síl sa firmy zamerané na AI snažia efektívnejšie odhaľovať tieto praktiky, zistiť, kto za nimi stojí, a zabrániť neautorizovaným užívateľom v úspechu.
Vládni úradníci dali najavo, že podporujú zdieľanie informácií medzi firmami zameranými na AI, aby obmedzili neautorizované napodobňovanie. Akčný plán pre AI, ktorý vlani predstavil prezident Donald Trump, navrhoval vznik centra pre zdieľanie a analýzu dát, čiastočne práve za týmto účelom.
Doteraz je však výmena informácií obmedzená, pretože firmy si nie sú isté, čo môžu zdieľať podľa protimonopolných pravidiel. Ocenili by jasnejšie smernice od americkej vlády, uviedli zdroje.