UE: sistemele de inteligență artificială ar trebui să fie construite și implementate într-un mod transparent și responsabil

UE: sistemele de inteligență artificială ar trebui să fie construite și implementate într-un mod transparent și responsabil

Uniunea Europeană a emis astăzi în mod oficial un set de documente de orientare cu privire la modul în care atât întreprinderile, cât și guvernele ar trebui să urmeze în dezvoltarea și implementarea proiectelor lor de inteligență artificială, astfel încât să fie cu adevărat transparent, corect și „etic”.

UE: sistemele de inteligență artificială ar trebui să fie construite și implementate într-un mod transparent și responsabil

Acest lucru îmi amintește brusc de o lege numită Trei legi ale roboticii menționată de scriitorul rus Isaac Asimov în colecția de nuvele „Runaround” pe care a compus-o în 1942, ceva asemănător cu prima: Un robot nu are voie să facă rău oamenilor sau să ignore pericolele care se confruntă oamenii. Articolul 2: Un robot trebuie să se supună absolut ordinelor date de oameni, cu excepția cazului în care aceste ordine sunt în conflict cu prima lege. Și al treilea: Un robot trebuie să se protejeze, cu condiția ca o astfel de protecție să nu intre în conflict cu prima și a doua lege. Deși acesta este doar un set de reguli „ficțiune” care au apărut în urmă cu aproape 80 de ani, este încă de actualitate mai ales atunci când oamenii intră treptat în era actuală a inteligenței artificiale. Desigur, noul set de reguli emis de UE nu va fi în esență același cu legea „Trei legi ale roboticii” a lui Isaac Asimov. Legislatorii europeni nu pot oferi un cadru etic flexibil care să ne ajute să navigăm în lucruri mari, cum ar fi oprirea roboților ucigași. În schimb, documentele de orientare ale UE ajută la abordarea problemelor „întunecate și omniprezente” care au un impact negativ asupra societății, deoarece integrăm inteligența artificială în multe domenii importante ale vieții noastre, cum ar fi asistența medicală, educația și tehnologia de consum.

UE: sistemele de inteligență artificială ar trebui să fie construite și implementate într-un mod transparent și responsabil

Ca exemplu simplu, dacă un sistem medical de inteligență artificială diagnostichează o persoană cu risc crescut de a dezvolta cancer în viitor, ghidul UE va ajuta să se asigure că unele dintre următoarele trebuie făcute: Software-ul nu este părtinitor sau părtinitor de către pacientul. rasa sau sexul, si in acelasi timp sa ofere cele mai clare si mai transparente informatii despre starea lor medicala si mai ales nu trebuie sa interfereze sau sa impiedice deciziile pacientului.medic.

Deci, da, aceste linii directoare se concentrează în principal pe limitarea și controlul modelelor AI pentru a funcționa corect, dar numai la nivel administrativ și birocratic, mai degrabă decât pe prevenirea actelor de ucidere conform imaginației scriitorului Asimov.

UE: sistemele de inteligență artificială ar trebui să fie construite și implementate într-un mod transparent și responsabil

Pentru a produce acest set de documente de orientare, UE a trebuit să convoace un grup de 52 de experți, cerându-le să discute, să fie de acord și să vină cu 7 cerințe pe care consideră că ar trebui să le poată răspunde viitoarele sisteme AI. Aceste cerințe sunt după cum urmează:

  1. Capacitatea supremă de a monitoriza și de a lua decizii trebuie să fie încă în mâinile oamenilor: AI nu ar trebui, sau mai degrabă, să nu i se permită să „calce” în picioare autonomia și autodeterminarea umană. În schimb, oamenii nu ar trebui să fie manipulați sau constrânși de sistemele AI. La urma urmei, oamenii trebuie să aibă capacitatea de a interveni sau de a monitoriza fiecare decizie pe care software-ul AI o ia în situații necesare.
  2. Tehnici de implementare precise, sigure și sigure: Fiecare model AI atunci când este implementat, fie la scară de laborator sau în realitate, trebuie să asigure doi factori: siguranță și acuratețe, care sunt: ​​Condiții preliminare. Cu alte cuvinte, un software AI nu ar trebui să fie ușor compromis și preluat de atacuri externe, iar fiecare decizie pe care o ia ar trebui să fie absolut de încredere în cel mai rezonabil mod.
  3. Asigurarea confidențialității și a guvernării datelor: datele personale colectate de sistemele AI trebuie să fie bine securizate și complet private. Aceste date nu pot fi dezvăluite sau accesate de niciun actor și nu pot fi furate sau pierdute cu ușurință.
  4. Asigurarea transparenței: datele și algoritmii utilizați pentru a crea un sistem AI ar trebui să fie accesibili, iar deciziile luate de software ar trebui, de asemenea, prezentate și explicate în mod clar. Cu alte cuvinte, operatorii trebuie să fie capabili să explice deciziile pe care le iau sistemele lor AI într-un mod concret și logic.
  5. Asigurați diversitatea, nediscriminarea și corectitudinea: serviciile bazate pe inteligența artificială trebuie să fie disponibile pentru toată lumea, indiferent de vârstă, sex, rasă sau alte caracteristici. În același timp, deciziile pe care le ia AI nu trebuie să fie părtinitoare față de nicio caracteristică sau obiect.
  6. Impact pozitiv asupra mediului și social: sistemele AI trebuie să fie implementate și dezvoltate în mod durabil (adică trebuie să fie responsabile din punct de vedere ecologic) și să contribuie la schimbarea socială pozitivă.
  7. Responsabilitate: sistemele AI trebuie auditate și protejate de garanțiile existente. Cu alte cuvinte, impactul negativ (dacă există) al sistemului ar trebui să fie recunoscut sincer, iar operatorii ar trebui să fie trași la răspundere pentru impactul negativ pe care sistemele lor AI îl provoacă.

Probabil veți observa că unele dintre afirmațiile de mai sus sunt destul de abstracte și ar fi dificil de evaluat într-un sens obiectiv (de exemplu, definiția schimbării sociale pozitive pe care IA o aduce va varia foarte mult de la o persoană la alta și, mai larg, între țări. ). Cu toate acestea, majoritatea elementelor rămase sunt în general mai simple și pot fi verificate și garantate prin supravegherea autorităților. De exemplu, partajarea datelor utilizate pentru antrenarea sistemelor AI guvernamentale ar putea fi o modalitate bună de a combate algoritmii părtinitori și opaci.

UE: sistemele de inteligență artificială ar trebui să fie construite și implementate într-un mod transparent și responsabil

Prevederile acestor documente de orientare ale UE în mod evident nu sunt obligatorii din punct de vedere juridic, dar ar putea fi folosite pentru a modela orice legislație viitoare elaborată de Uniunea Europeană care să conțină domeniului IA. În trecut, UE a spus în mod repetat că dorește să facă din Europa un pionier în lume în implementarea modelelor „etice” de IA și lansarea unui set de documente de orientare. Acest lucru arată în mod clar că sunt pregătiți să elaboreze legi de anvergură. reglementarea și protejarea drepturilor digitale.

UE dorește să modeleze o industrie de inteligență artificială cu standarde etice la bază

Ca parte a eforturilor de a crea o industrie AI „etică”, documentul de orientare al UE ar putea fi văzut ca o piatră de temelie pentru crearea unei „liste de evaluare a IA de încredere” – o listă de termeni care poate ajuta experții să găsească orice puncte slabe sau potențiale pericole într-o IA. software, chiar dacă a fost implementat pe scară largă. Această listă poate include întrebări precum: „Poți demonstra cum funcționează sistemul tău AI în situații și medii complexe?” sau „Puteți evalua tipul și domeniul de aplicare al datelor din setul de date?” ...

Desigur, această listă de evaluare este doar preliminară, UE va trebui să colecteze în continuare feedback de la companii și experți în inteligență artificială în viitorul apropiat. Încă din 2020, UE va publica un raport de sinteză pe această problemă.

UE: sistemele de inteligență artificială ar trebui să fie construite și implementate într-un mod transparent și responsabil

Anny Hidvégi, manager de politici la grupul pentru drepturile digitale Access Now și unul dintre cei 52 de experți responsabili cu elaborarea documentelor de orientare ale UE, a declarat că lista de evaluare este partea cheie. Punctul cel mai important al raportului: „Acest set de documente ajută la furnizarea unui punct de vedere practic. , o perspectivă de perspectivă asupra modului de a preveni și de a minimiza potențialul rău al AI.”

„În opinia noastră, UE are suficient potențial și responsabilitate pentru a deveni o organizație lider în această activitate. Dar, pe lângă asta, credem și că Uniunea Europeană nu trebuie să se oprească la principii morale. Ei ar trebui să ia în considerare solicitarea companiilor miniere AI să respecte legea în viitor”, a adăugat domnul Hidvégi.

Alții sunt sceptici că încercarea UE de a modela modul în care este dezvoltată IA globală prin cercetare etică va avea un efect mare.

„Suntem sceptici cu privire la abordarea pe care o adoptă principala organizație europeană. Ideea că, prin crearea unui standard de aur pentru sistemele AI etice, UE își va putea să-și facă loc în dezvoltarea industriei globale de IA este relativ exagerată. Pentru a deveni un lider în modelarea regulilor etice AI, UE trebuie mai întâi să devină un lider în domeniul AI în ansamblu”, a declarat Eline Ch Pivot, analist senior de politici la Centrul European de Inovare în Date.

Ce părere aveți despre această problemă? Vă rugăm să lăsați comentariile dumneavoastră în secțiunea de comentarii de mai jos!


Grupul de lucru ChatGPT va fi înființat de Europa

Grupul de lucru ChatGPT va fi înființat de Europa

Organismul care reunește organele naționale de supraveghere a vieții private din Europa a declarat joi că a înființat un grup operativ dedicat ChatGPT

AI prezice ora morții umane cu o precizie de 78%.

AI prezice ora morții umane cu o precizie de 78%.

Oamenii de știință danezi și americani au colaborat pentru a dezvolta un sistem AI numit life2vec, capabil să prezică ora morții umane cu mare precizie.

AI prezice bolile urinare doar prin sunetul urinei

AI prezice bolile urinare doar prin sunetul urinei

Un algoritm AI numit Audioflow poate asculta sunetul urinării pentru a identifica eficient și cu succes fluxurile anormale și problemele de sănătate corespunzătoare ale pacientului.

Barmani, atenție: acest robot poate amesteca un cocktail în doar 1 minut

Barmani, atenție: acest robot poate amesteca un cocktail în doar 1 minut

Îmbătrânirea și scăderea populației din Japonia a lăsat țara lipsită de un număr semnificativ de tineri lucrători, în special în sectorul serviciilor.

Sute de oameni au fost dezamăgiți când au aflat că fata pe care o iubeau este un produs al inteligenței artificiale

Sute de oameni au fost dezamăgiți când au aflat că fata pe care o iubeau este un produs al inteligenței artificiale

Un utilizator Reddit numit u/LegalBeagle1966 este unul dintre mulți utilizatori îndrăgostiți de Claudia, o fată asemănătoare vedetei de cinema care deseori împărtășește selfie-uri seducătoare, chiar și nud, pe această platformă.

Încă 12 companii potențiale se alătură „alianței AI” a Microsoft.

Încă 12 companii potențiale se alătură „alianței AI” a Microsoft.

Microsoft tocmai a anunțat că alte 12 companii de tehnologie vor participa la programul său AI for Good.

AI recreează personajele Dragon Ball în carne și oase

AI recreează personajele Dragon Ball în carne și oase

Utilizatorul @mortecouille92 a pus în funcțiune puterea instrumentului de design grafic Midjourney și a creat versiuni realiste unice ale personajelor celebre Dragon Ball precum Goku, Vegeta, Bulma și bătrânul Kame. .

7 tehnici pentru a îmbunătăți răspunsurile ChatGPT

7 tehnici pentru a îmbunătăți răspunsurile ChatGPT

Doar prin adăugarea unor condiții sau configurarea unor scenarii, ChatGPT poate oferi răspunsuri mai relevante la întrebările dvs. Să vedem câteva modalități prin care puteți îmbunătăți calitatea răspunsurilor dvs. ChatGPT.

Minunați-vă de tablourile frumoase desenate de inteligența artificială

Minunați-vă de tablourile frumoase desenate de inteligența artificială

Midjourney este un sistem de inteligență artificială care a provocat recent o „febră” în comunitatea online și în lumea artiștilor din cauza picturilor sale extrem de frumoase, care nu sunt inferioare celor ale artiștilor adevărați.

Acest model AI a fost unul dintre primii „experți” care au descoperit știri despre focarul de pneumonie din Wuhan.

Acest model AI a fost unul dintre primii „experți” care au descoperit știri despre focarul de pneumonie din Wuhan.

La câteva zile după ce China a anunțat focarul, având acces la datele globale despre vânzările de bilete de avion, sistemul AI al BlueDot a continuat să prezică cu exactitate răspândirea virusului Wuhan Corona la Bangkok, Seul, Taipei și Tokyo.