Robert Važan

Prečo potrebujeme necenzurované jazykové modely

ChatGPT a iné verejne prístupné jazykové modely sú silne cenzurované. Nielen to, je tu tlak na reguláciu umelej inteligencie, ktorá by mohla túto cenzúru urobiť povinnú a ktorá by do zákona zapiekla aj iné dizajnové rozhodnutia. Tu chcem vysvetliť, prečo je to krátkozraké a možno aj nebezpečné a predstaviť lepšiu alternatívu, vďaka ktorej bude vlk sýty aj ovca celá.

Ľudia vnímajú umelú inteligenciu, najmä jazykové modely, tromi rôznymi spôsobmi:

Tieto tri uhly pohľadu nie sú len chybami v úsudku, anomáliami ľudskej mysle. Odrážajú tri rôzne triedy aplikácií umelej inteligencie:

Posledná možnosť je vlastne mäkká kybernetizácia alebo kognitívna augmentácia, pretože úzka integrácia sťažuje určenie hranice medzi osobným a verejným a akýkoľvek zásah do umelej inteligencie je vnímaný ako zásah do vlastných myšlienok a teda porušovanie ľudských práv. Umelá inteligencia určená na augmentáciu preto musí byť necenzurovaná rovnako, ako sú necenzurované vlastné myšlienky ľudí.

Jedna umelá inteligencia môže podporovať všetky tri triedy aplikácií ako samostatné režimy interakcie. Režim interakcie sa dá vybrať explicitne v používateľskom rozhraní alebo implicitne zohľadnením pokynov používateľa. Nie každá umelá inteligencia potrebuje režimy interakcie. Je v poriadku, ak sa vývojári zamerajú na jednu aplikáciu. Potrebujeme len zachovať legálnosť a spoločenskú toleranciu pre všetky tri režimy.

V súčasnosti to tak ale nie je. Aj keď regulácia umelej inteligencie sa stále len pripravuje, už teraz je jasné, že sa zameriava na umelú inteligenciu vo všeobecne akceptovanejšej roli asistenta/nástroja. Kolujú návrhy, ktoré by umelej inteligencii zakázali napodobňovať ľudské emócie a vytvárať vzťahy s ľuďmi. Regulácia umelej inteligencie je zo svojej podstaty nepriateľská aj voči augmentačným aplikáciám, pretože ľudia, ktorí chápu umelú inteligenciu ako rozšírenie svojej mysle, budú vnímať reguláciu výstupov umelej inteligencie ako cenzúru a zásah do súkromia a slobody myslenia.

Aplikácie spoločníka a augmentácie sú tiež terčom sociálneho tlaku, keďže ľudia, ktorí takto používajú umelú inteligenciu, sú označovaní za bláznov, hlupákov a čudákov. Prevádzkovatelia umelej inteligencie, reagujúc na rovnaký spoločenský tlak, okýpťujú svoju vlastnú umelú inteligenciu, aby sa vyhli kontroverzii alebo pozornosti regulačných orgánov.

Od firiem nemožno očakávať, že budú dostatočne odvážne, aby sa postavili tlaku verejnosti, takže kontroverzné aplikácie umelej inteligencie budú musieť implementovať opensource projekty alebo špecializované firmy zamerané na trhové niky. Na to však potrebujeme, aby regulácia umelej inteligencie ponechala všetky tri režimy interakcie legálne a relatívne bez obmedzení.

Vlastne pre to existuje precedens: bezpečný režim vo vyhľadávačoch, hoci to nie je ideálny príklad, pretože vyhľadávače pokračujú v manipulácii s výsledkami aj po vypnutí bezpečného vyhľadávania. Existencia tejto funkcie vo vyhľadávačoch však ukazuje, že je možné uspokojiť protichodné ciele rôznorodej komunity používateľov sprístupnením jednoduchých nastavení, ktoré reprezentujú hlavné kompromisy.