DeepMind hovorí, že to nemalo nič spoločné s výskumným dokumentom, ktorý hovorí, že AI by mohla ukončiť ľudstvo

Obrázok: NurPhoto / Prispievateľ cez Getty Images

Po tom, čo výskumník s pozíciou v DeepMind – firme zaoberajúcej sa strojovými informáciami, ktorú vlastní materská spoločnosť Google Alphabet – spoluautorsky napísal článok, v ktorom tvrdí, že AI by jedného dňa mohla celkom vyhladiť ľudstvo, sa DeepMind od tejto práce dištancuje.



Článok bol nedávno publikovaný v recenzovanom časopise AI Magazine, a jeho spoluautormi sú výskumníci z Oxfordskej univerzity a Marcus Hutter, výskumník AI, ktorý pracuje v DeepMind. V prvom riadku Hutterovej webovej stránky sa uvádza toto: „Som Senior Researcher v Google DeepMind v Londýne a čestným profesorom na Research School of Computer Science ( RSCS ) na Austrálskej národnej univerzite ( thingumajig ) v Canberre.' ktorý v súčasnosti uvádza jeho príslušnosť k DeepMind a ANU prechádza niekoľkými myšlienkovými experimentmi o budúcnosti ľudstva so superinteligentnou AI, ktorá funguje pomocou podobných schém ako dnešné programy strojového učenia, ako je napríklad hľadanie odmeny. Dospel k záveru, že tento scenár by mohol prepuknúť do hry s nulovým súčtom medzi ľuďmi a AI, ktorá by bola „fatálna“, ak by ľudstvo prehralo.






Po zverejnení základnej dosky článok na tomto dokumente s titulkom „Google Deepmind Researcher Paper Co-authors Paper Saying AI Will Eliminate Humanity“ sa spoločnosť rozhodla dištancovať sa od papiera a požiadať základnú dosku, aby odstránila zmienku o spoločnosti. Vo vyhlásení pre Motherboard DeepMind tvrdil, že príslušnosť bola uvedená „omylom“ a bola odstraňovaná (v čase písania článku to tak nebolo) a že Hutterov príspevok bol výlučne pod hlavičkou jeho univerzitnej pozície.





'DeepMind nebol zapojený do tejto práce a autori článku požiadali o opravy, aby to odrážali,' uviedol hovorca DeepMind pre Motherboard v e-maile. univerzitné profesúry a venujú sa akademickému výskumu oddelene od svojej práce v DeepMind prostredníctvom svojich univerzitných pridružení.“

Hovorca uviedol, že aj keď DeepMind nebol zapojený do tohto dokumentu, spoločnosť investuje úsilie do ochrany pred škodlivým používaním AI a premýšľa „hlboko o bezpečnosti, etike a širších spoločenských dopadoch AI a výskumu a vývoji modelov AI, ktoré sú bezpečné. efektívne a v súlade s ľudskými hodnotami.“






DeepMind odmietla komentovať, či súhlasí so závermi článku, ktorého spoluautorom je Hutter.



Michael Cohen, jeden zo spoluautorov článku, tiež požiadal Motherboard o podobnú opravu. Redakčnou politikou základnej dosky je neopravovať nadpis, pokiaľ neobsahuje faktickú chybu.

Aj keď spoločnosť tvrdí, že sa zaviazala k bezpečnosti a etike umelej inteligencie, už predtým ukázala, že keď príde príliš silná kritika od ľudí s pozíciou vo firme – bez ohľadu na to, či majú aj externé záväzky – je príliš šťastné, že sa s tým vyrovnajú.

Napríklad v roku 2020 prominentný výskumník AI Timnit Gebru, ktorý mal v tom čase pozíciu v spoločnosti Google, bol spoluautorom článku o etických úvahách vo veľkých modeloch strojového učenia. Google požadoval, aby odstránila svoje meno z publikácie a odvolala ho, a nakoniec ju vyhodili . Vytlačenie Gebru podnietilo zamestnancov Google, aby zverejnili blog vysvetľujúci podrobnosti vedúce k prepusteniu, vrátane toho, že dokument bol skutočne interne schválený; až potom, čo sa to dostalo na verejnosť, sa Google rozhodol, že to nemôže byť spojené s prácou, a požadoval, aby bol zo situácie vyňatý. Keď to nešlo, spoločnosť Gebru uvoľnila.

V reakcii na prvý príbeh základnej dosky o papieri, Gerbu tweetoval že keď sa spýtala spoločnosti Google, či môže pridať svoje meno do etického dokumentu AI, ktorý nakoniec viedol k jej prepusteniu s pridružením, ktoré nie je Google, „stretla sa so smiechom“.

Margret Mitchellová, ďalšia etická umelkyňa, ktorá bola vyhodená z Google v rovnakom čase ako Gerbu tweetoval že im Google povedal, že pokiaľ pracovali v spoločnosti, Google „má PLNÉ vedieť o tom, čo sme zverejnili“.

Mať viacero pridružení v akademickom a súkromnom sektore je relatívne normálne a prichádza s vlastným súborom náročných etických obáv, ktoré súvisia s dlhou históriou korporácií, ktoré získavajú akademickú obec, aby produkovali priaznivý výskum. Google ukázal, že využije túto nejasnú priepasť, aby sa zbavil kritiky, keď to spoločnosti vyhovuje.