Unde greșesc Microsoft și ceilalți în materie de AI

Acum o săptămână (sau două) Microsoft a lansat un robot cu inteligență artificială care simula un adolescent – i-a dat drumul pe twitter. În mai puțin de 24 de ore, cu un pic de efort din partea celor de la 4chan, robotul a devenit agresiv și a început să dea drumul la diverse idei pe care ca și societate le considerăm greșite. Am făcut atunci o afirmație pe care nu am justificat-o suficient. O să-mi iau un pic de timp să o fac acum.

Spuneam că viața oamenilor depinde din ce în ce mai tare de calculatoare și că programatorii de slabă factură scriu sisteme de inteligență artificială care devin autoare de genocid. Să luăm exemplul lui Tay, chatbot-ul lui Microsoft. Acesta a fost într-o scurtă perioadă convins să emită idei gen “Hitler avea dreptate și toți evreii trebuie să moară”

Sigur, a fost o greșeală din partea celor de la Microsoft să-l facă “read-write” – adică să învețe din experiențe. Sigur, nu e AI dacă nu învață – dar probabil cei de la Microsoft fie nu și-au dat seama, fie i-au dat posibilitatea ca lucrurile pe care le învață să fie mai puternice decât chestiunile de bază pe care i le-au oferit pentru învățare înainte de prezența online.

Sunt mai multe aspecte pe care cred eu că nu le-au luat în seamă. De exemplu că noi avem în codul genetic prins rezultatul a milioane de ani de evoluție care ne-au dat un echilibru stabil – nu perfect, nu ideal, dar stabil. Caracteristicile noastre plăcute dar și cele neplăcute sunt prinse după milioane de ani de evoluție, lucruri care sunt greu de șters. De exemplu motivul pentru care suntem atrași sexual de persoane de gen opus, sau motivul pentru care în general fratele și sora nu vor fi atrași sexual unul de celălalt (yup, genetics). Motivul pentru care ne sperie moartea și motivul pentru care nu găsim că e ușor să omorâm un om sau un animal (deși trecem peste asta cu antrenament) e iarăși genetic. Barierele morale sunt jumătate genetică, jumătate educație – acei 7 ani de-acasă care ghidează creșterea noastră ulterioară și care au adesea prioritate peste restul anilor de viață. Înțelegerea și acceptarea mortalității și a efemerității personale, care ne ghidează respectul față de viață.

Vine apoi felul în care acumulăm experiență și felul în care dăm responsabilitatea oamenilor. Există un motiv pentru care nu lăsăm adolescenți la conducere, fiindcă sunt naivi și ușor de păcălit. De-asta o să vezi tot timpul adolescenți protestând pentru lucruri ilogice, de exemplu tineri albi protestând contra “privilegiului de alb” și alte asemenea. În timp însă interacțiunea cu societatea, înțelegerea mai bună a mecanismelor societății, varietatea experiențelor (pe care le procesează lent, un festina lente necesar, se pare) îl transformă pe om. În același timp barierele pe care le punem ca societate în fața oamenilor bine intenționați care ajung să devină autori de genocid, faptul că nu lăsăm responsabilitate și putere absolută, faptul că avem dictoane precum “puterea absolută corupe absolut”.

Cred că astea sunt câteva aspecte pe care Microsoft nu le-a luat în considerare. De exemplu faptul că în fața bombardamentului cu informație, AI-ul genocidal nu a reacționat ca un om, obosind, refuzând informația multiplicată ce contravenea pregătirii sale – ci a luat-o ca și relevantă statistic. Faptul că l-a pus pe robotul Tay în contact cu mii de oameni pe când relațiile interumane sunt mult mai reduse, și ne fac să apreciem altfel calitatea informației. Faptul că nu i-au pus bariere “morale” – da, acele reguli ale lui Asimov care par potrivite acum. Nu e ca și cum cele trei reguli ale lui Asimov ar fi o chestiune nouă pentru programatorii de la Microsoft.

Spuneam că e din ce în ce mai evidentă necesitatea ca anumite operațiuni să fie făcute de către automate – nu de către oameni. Că, de exemplu, condusul de mașini de către pilot uman ar trebui să ajungă interzis – astfel, accidente precum cel din Brăila nu ar putea avea loc (ca și paranteză, citiți articolul ăsta al lui Radu Dumitru). Nu e singurul exemplu, dar e un exemplu elocvent. În orice caz, ideea e că viitorul ne va vedea abandonând anumite activități în favoarea inteligențelor artificiale, necesare pentru a lua decizii în absența unui operator uman. Avem nevoie să garantăm discernământul inteligențelor artificiale – ori cu cercetătorii care au creat o inteligență atât de ușor de montat în direcția greșită e clar că viitorul rasei umane e în pericol.

tay-picture

Tay, robotul genocid


Comments

Unde greșesc Microsoft și ceilalți în materie de AI — 18 Comments

  1. Elon Musk avea dreptate să fie speriat de AI. Dacă nu se var niște chestii de bază care să nu paotă fi rescrise, atunci viitorul aparține Skynet 😀

  2. “condusul de mașini de către pilot uman ar trebui să ajungă interzis” – keep dreamin’ !
    Poate doar asistenţă senzorială avansată, dar nu va fi niciodată lăsat condusul pe stradă unei inteligenţe artificiale. Mediul este prea variat, prea multe necunoscute pot apărea ca să poată fi acoperit de inteligenţa artificială.

  3. “Există un motiv pentru care nu lăsăm adolescenți la conducere, fiindcă sunt naivi și ușor de păcălit” – Alături de zeci de alte motive pentru care e în regulă să auzi adolescenții, dar n-are sens să-i asculți 😛

  4. Ai spus: “De-asta o să vezi tot timpul adolescenți protestând pentru lucruri ilogice, de exemplu tineri albi protestând contra “privilegiului de alb” și alte asemenea”

    De ce e asa ilogic sa protestezi impotriva a ceva ce te avantajeaza, daca acel ceva e nedrept? De ce Petreanu / PAH / etc refuza pensiile speciale de jurnalist, chiar daca astea i-ar avantaja? De ce sunt unii care vor sa le fie lor mai putin bine ca altora sa le poata fi mai putin rau?

    A fi obiectiv mi se pare o trasatura admirabila, nu ilogica.

    • Cam așa cum ăla care îl împușcă în cap pe un individ nu poate să se căineze despre nedreptatea prin care unii sunt omorâți, cam la fel e și cu protestul contra privilegiului de alb. E o problemă care e la tine acasă, dacă ai o problemă cu asta dă-ți o palmă în intimitatea propriei tale locuințe.

    • Aici nu pot fi de acord cu tine – albii au pus capat rasismului in State, de exemplu. Ce sustii tu e din logica ‘Vacile mananca iarba, vacile sunt mamifere, deci toate mamiferele mananca iarba’. Albii nu sunt pur si simplu o unitate, gandesc diferit, actioneaza diferit, au roluri diferite. Ce fac eu acasa, in intimitatea propriei mele locuinte nu poate schimba nedreptatea pe care o vad – pentru asta e nevoie sa fac ceva in public, sa ma manifest de o maniera care sa poata rezulta intr-o schimbare.

Comentariul tău