Un grup de lobby sustinut de Elon Musk si asociat cu o ideologie controversata populara printre miliardarii din domeniul tehnologiei lupta pentru a impiedica robotii ucigasi sa puna capat umanitatii si a preluat Legea privind inteligenta artificiala din Europa pentru a face acest lucru.

Institutul Future of Life (FLI) s-a transformat in ultimul an intr-o forta de influenta asupra unora dintre cele mai controversate elemente ale Actului AI. In ciuda legaturilor grupului cu Silicon Valley, gigantii Big Tech precum Google si Microsoft s-au trezit de partea invinsa a argumentelor FLI.

In bula UE, sosirea unui grup ale carui actiuni sunt colorate de teama de catastrofa declansata de inteligenta artificiala, mai degraba decat de preocuparile obisnuite privind protectia consumatorilor, a fost primita ca o nava spatiala care coboara in sensul giratoriu Schuman. Unii isi fac griji ca institutul intruchipeaza o anxietate techbroish cu privire la amenintarile cu probabilitate scazuta care ar putea distrage atentia de la probleme mai imediate. Dar cei mai multi sunt de acord ca in perioada petrecuta la Bruxelles, FLI a fost eficienta. 

„Sunt destul de pragmatici si au expertiza juridica si tehnica”, a spus Kai Zenner, consilier pentru politici digitale al europarlamentarului de centru-dreapta Axel Voss, care lucreaza la Legea AI. „Uneori sunt putin prea ingrijorati de tehnologie, dar ridica o multime de puncte bune.” 

Lansata in 2014 de academicianul MIT Max Tegmark si sustinuta de oameni ai tehnologiei, inclusiv Musk, Jaan Tallinn de la Skype si cripto-proiectul Vitalik Buterin, FLI este o organizatie nonprofit dedicata confruntarii cu „riscurile existentiale” – evenimente capabile sa distruga sau sa condamne omenirea. Printre consilierii sai externi se numara si alti filme fierbinti precum actorii Morgan Freeman si Alan Alda si oamenii de stiinta renumiti Martin (Lord) Rees si Nick Bostrom.

Principala dintre aceste amenintari – si prioritatile FLI – este inteligenta artificiala care functioneaza.

„Am vazut prabusiri de avioane pentru ca un pilot automat nu a putut fi anulat. Am vazut o asalta a Capitoliului SUA deoarece a fost antrenat un algoritm pentru a maximiza implicarea. Acestea sunt defectiuni ale sigurantei AI astazi – pe masura ce aceste sisteme devin mai puternice, daunele s-ar putea agrava”, a declarat Mark Brakel, directorul FLI pentru politici europene, intr-un interviu.

Dar grupul de lobby se confrunta cu doua probleme de PR. In primul rand, Musk, cel mai faimos sustinator al sau, se afla in centrul unei furtuni de cand a inceput concedieri in masa impotriva Twitter in calitate de noul sau proprietar, atragand si atentia autoritatilor de reglementare. Controversele lui Musk i-ar putea face pe parlamentari sa fie suparati sa vorbeasca cu FLI. In al doilea rand, conexiunile grupului cu un set de credinte cunoscute sub numele de altruism efectiv ridica sprancene: ideologia se confrunta cu o socoteala si cel mai recent este acuzata ca o forta motrice din spatele scandalului din jurul schimbului de criptomonede FTX, care a declansat carnagiu financiar. 

Cum a strapuns FLI bula?

Sosirea unui grup de lobby care lupta impotriva disparitiei, a inteligentei artificiale nealiniate si a robotilor ucigasi a trebuit sa fie invioratoare pentru elaborarea politicilor de la Bruxelles, altfel ametitoare.

Biroul FLI de la Bruxelles a fost deschis la jumatatea anului 2021, pe masura ce incepeau discutiile despre propunerea Comisiei Europene privind AI Act.

„Am prefera ca IA sa fie dezvoltata in Europa, unde vor exista reglementari”, a spus Brakel. „Speranta este ca oamenii sa se inspire din UE”.

Fost diplomat, Brakel, nascut in Olanda, s-a alaturat institutului in mai 2021. El a ales sa lucreze in politica de inteligenta artificiala ca un domeniu care a avut impact si deservit. Cercetatorul de politici Risto Uuk i s-a alaturat doua luni mai tarziu. Un operator digital calificat – isi publica analizele si buletinul informativ din domeniul artificialintelligenceact.eu – Uuk facuse anterior cercetari AI pentru Comisie si Forumul Economic Mondial. S-a alaturat FLI din afinitate filozofica: la fel ca Tegmark, Uuk subscrie la principiile altruismului eficient, un sistem de valori care prescrie utilizarea dovezilor solide pentru a decide cum sa beneficieze cel mai mare numar de oameni.

De cand a inceput la Bruxelles, echipa de trei persoane a institutului (cu ajutorul Tegmark si al altora, inclusiv firma de avocatura Dentons) a condus cu indemanare eforturile de lobby pe probleme putin cunoscute ale AI.

 Anexa A: IA de uz general — software precum instrumentele de recunoastere a vorbirii sau de generare de imagini utilizate intr-o gama larga de contexte si uneori afectate de partiniri si inexactitati periculoase (de exemplu, in medii medicale). Inteligenta artificiala cu scop general nu a fost mentionata in propunerea Comisiei, dar a intrat in textul final al Consiliului UE si este garantat sa figureze in pozitia Parlamentului.

„Am iesit si am spus: „Exista aceasta noua clasa de AI – sisteme AI de uz general – si Legea AI nu le ia in considerare deloc. Ar trebui sa va faceti griji pentru asta’”, a spus Brakel. „Acesta nu a fost pe radarul nimanui. Acum este.”

Grupul joaca, de asemenea, pe temerile europene de dominatie tehnologica de catre SUA si China. „Sistemele AI de uz general sunt construite in principal in SUA si China, iar asta ar putea dauna inovatiei in Europa, daca nu va asigurati ca respecta anumite cerinte”, a spus Brakel, adaugand ca acest argument a rezonat cu parlamentarii de centru-dreapta cu care s-a cunoscut recent. 

Un alt hobby-hors ai FLI este interzicerea AI capabila sa manipuleze comportamentul oamenilor. Propunerea initiala interzice IA manipulativa, dar aceasta se limiteaza la tehnici „subliminale” – despre care Brakel crede ca ar crea lacune. 

Dar coraportorul AI Act, parlamentarul de la Romanian Renew Dragos Tudorache, face acum eforturi pentru a face interdictia mai cuprinzatoare. „Daca acest amendament va fi aprobat, am fi mult mai fericiti decat suntem de textul actual”, a spus Brakel.

Atat de inteligent incat a facut sa se prabuseasca cripto-ul

In timp ce contributia grupului cu privire la dispozitiile cheie din proiectul de lege privind inteligenta artificiala a fost binevenita, multi dintre membrii organizatiei de la Bruxelles privesc cu indoiala viziunea sa asupra lumii.

Tegmark si alti sustinatori FLI adera la ceea ce se numeste altruism efectiv (sau EA). O componenta de utilitarism codificata de filozoful William MacAskill – a carui lucrare Musk a numit-o „o potrivire apropiata pentru filosofia mea” – EA impune ca ar trebui sa imbunatateasca viata a cat mai multor oameni posibil, folosind o abordare rationalista bazata pe fapte. La un nivel de baza, asta inseamna donarea unor cantitati mari din venitul unei organizatii caritabile competente. O componenta mai radicala, de lunga durata a altruismului eficient cere ca cineva sa se straduiasca sa minimizeze riscurile capabile sa omoare o multime de oameni – si in special oamenii viitori, care ii vor depasi cu mult pe cei existenti. Aceasta inseamna ca prevenirea potentialei cresteri a unei IA ale carei valori se ciocnesc de bunastarea omenirii ar trebui sa fie in fruntea listei de preocupari.

O interpretare critica a FLI este ca promoveaza aceasta interpretare a asa-numitei agende pentru altruism efectiv, una presupus neinteresata de bolile actuale ale lumii – cum ar fi rasismul, sexismul si foamea – si concentrata pe amenintarile SF pentru cele care urmeaza sa fie. – oameni nascuti. Timnit Gebru, un cercetator AI a carui iesire acrimonioasa de la Google a facut titluri in 2020, a criticat FLI pe Twitter, exprimand „ingrijorari uriase” in legatura cu aceasta.

„Sunt sprijiniti de miliardari, inclusiv de Elon Musk – asta ar trebui sa-i faca deja pe oameni suspiciosi”, a spus Gebru intr-un interviu. „Intregul domeniu din jurul sigurantei AI este alcatuit din atat de multe „institute” si companii in care miliardarii pompeaza bani. Dar conceptul lor de siguranta AI nu are nimic de-a face cu daunele actuale fata de grupurile marginalizate – vor sa reorienteze intreaga conversatie pentru a preveni acest lucru. Apocalipsa AI.”

Reputatia altruismului efectiv a fost lovita in ultimele saptamani dupa caderea FTX, o bursa falimentara care a pierdut cel putin 1 miliard de dolari din activele in criptomonede ale clientilor. CEO-ul sau, Sam Bankman-Fried, in dizgratie, era unul dintre dragii lui EA, vorbind in interviuri despre planul sau de a face baziloane si de a le oferi unor organizatii de caritate. Pe masura ce FTX s-a prabusit, comentatorii au sustinut ca ideologia Altruismului Eficient l-a determinat pe Bankman-Fried sa dea curbe si sa-si rationalizeze imprudenta. 

Atat MacAskill, cat si donatorul FLI Buterin au aparat EA pe Twitter, spunand ca actiunile lui Bankman-Fried contrasteaza cu principiile filozofiei. „Degradarea automata a fiecarui lucru in care a crezut SBF este o eroare”, a scris Buterin, care a inventat blockchain-ul Ethereum si finanteaza bursa FLI pentru cercetarea riscului existential AI.

Brakel a spus ca FLI si EA sunt doua lucruri distincte, iar advocacy FLI s-a concentrat pe problemele actuale, de la software partinitor la arme autonome, de exemplu la nivelul Natiunilor Unite. „Ne petrecem mult timp gandindu-ne la cum ar arata lumea peste 400 de ani? Nu”, a spus el. (Nici Brakel, nici reprezentanta UE a FLI, Claudia Prettner, nu se autointituleaza altruisti eficienti.)

Ideologia californiana

O alta critica a eforturilor FLI de a impiedica IA rautacioasa sustine ca acestea ascund un impuls tehno-utopic de a dezvolta IA binevoitoare la nivel uman. La o conferinta din 2017, consilierii FLI – inclusiv Musk, Tegmark si Tallinn de la Skype – au dezbatut probabilitatea si dezirabilitatea unei AI mai inteligente decat umane. Majoritatea expertilor au considerat ca „superinteligenta” se va intampla; jumatate dintre ei au considerat ca este de dorit. Rezultatul conferintei a fost o serie de linii directoare (destul de moderate) privind dezvoltarea IA benefica, pe care Brakel le-a citat ca unul dintre documentele de baza ale FLI.

Acel tehno-optimism l-a determinat pe Emile P. Torres, doctorand. candidat in filozofie care obisnuia sa colaboreze cu FLI, pentru a se intoarce in cele din urma impotriva organizatiei. „Niciunul dintre ei nu pare sa considere ca poate ar trebui sa exploram un fel de moratoriu”, a spus Torres. Ridicarea unor astfel de puncte cu un angajat al FLI, a spus Torres, a dus la un fel de excomunicare. (Articolele lui Torres au fost scoase de pe site-ul FLI.)

La Bruxelles, ingrijorarea este ca, in viitor, FLI ar putea sa-si schimbe cursul fata de incarnarea actuala cu picioarele pe pamant si sa orienteze dezbaterea AI catre scenarii indepartate. „Cand discutam despre AI la nivelul UE, am vrut sa facem o distinctie clara intre sistemele AI plictisitoare si concrete si intrebarile stiintifico-fantastice”, a declarat Daniel Leufer. „Cand au avut loc discutiile anterioare ale UE privind reglementarea inteligentei artificiale, nu existau organizatii la Bruxelles care sa puna accent pe subiecte precum superintelligence – este bine ca dezbaterea nu a mers in aceasta directie”.

Cei care privesc FLI-ul drept generatia futurismului californian indica bordul si portofelul sau. Pe langa Musk, Tallinn si Tegmark, donatorii si consilierii includ cercetatori de la Google si OpenAI, Open Philanthropy a co-fondatorului Meta Dustin Moskovitz, Berkeley Existential Risk Initiative (care la randul sau a primit finantare de la FTX) si actorul Morgan Freeman. 

In 2020, cea mai mare parte a finantarii globale a FLI (276.000 USD din 482.479 USD) a venit de la Silicon Valley Community Foundation, o organizatie de caritate favorizata de cei mari din tehnologie precum Mark Zuckerberg; Conturile din 2021 nu au fost inca lansate. 

Brakel a negat ca FLI este confortabil cu Silicon Valley, spunand ca munca organizatiei privind IA de uz general a facut viata mai grea companiilor de tehnologie. Brakel a spus ca nu a vorbit niciodata cu Musk. Intre timp, Tegmark este in contact regulat cu membrii consiliului stiintific consultativ, care include Musk. 

In opinia lui Brakel, ceea ce face FLI seamana cu activismul climatic de la inceput. „In prezent vedem cel mai cald octombrie vreodata. Ne facem griji pentru asta astazi, dar ne ingrijoram si pentru impactul peste 80 de ani”, a spus el in octombrie. „Exista esecuri de siguranta AI astazi – si pe masura ce aceste sisteme devin mai puternice, daunele s-ar putea agrava.”