UE: Systemy sztucznej inteligencji należy budować i wdrażać w sposób przejrzysty i odpowiedzialny

UE: Systemy sztucznej inteligencji należy budować i wdrażać w sposób przejrzysty i odpowiedzialny

Unia Europejska oficjalnie opublikowała dziś zestaw dokumentów zawierających wytyczne dotyczące tego, jak zarówno przedsiębiorstwa, jak i rządy powinny postępować podczas opracowywania i wdrażania swoich projektów dotyczących sztucznej inteligencji, aby były one naprawdę przejrzyste, uczciwe i „etyczne”.

UE: Systemy sztucznej inteligencji należy budować i wdrażać w sposób przejrzysty i odpowiedzialny

To nagle przypomina mi prawo zwane Trzema prawami robotyki, o którym wspomniał rosyjski pisarz Izaak Asimov w zbiorze opowiadań „Runaround”, który skomponował w 1942 r., coś w rodzaju pierwszego: Robotowi nie wolno krzywdzić ludzi ani ignorować niebezpieczeństw, które mogą twarz człowieka. Artykuł 2: Robot musi bezwzględnie przestrzegać poleceń wydawanych przez ludzi, chyba że są one sprzeczne z pierwszym prawem. I po trzecie: Robot musi się chronić, pod warunkiem, że taka ochrona nie stoi w sprzeczności z pierwszym i drugim prawem. Chociaż jest to tylko zbiór zasad „fikcyjnych”, który pojawił się prawie 80 lat temu, jest on nadal szczególnie aktualny, gdy ludzie stopniowo wkraczają w obecną erę sztucznej inteligencji. Oczywiście nowy zbiór przepisów wydany przez UE nie będzie zasadniczo taki sam, jak ustawa „Trzy prawa robotyki” Isaaca Asimova. Europejscy prawodawcy nie są w stanie zapewnić elastycznych ram etycznych, które pomogłyby nam w radzeniu sobie z tak ważnymi sprawami, jak powstrzymywanie zabójczych robotów. Zamiast tego wytyczne UE pomagają rozwiązać „ciemne i wszechobecne” problemy, które mają negatywny wpływ na społeczeństwo, ponieważ integrujemy sztuczną inteligencję w wielu ważnych obszarach naszego życia, takich jak opieka zdrowotna, edukacja i technologie konsumenckie.

UE: Systemy sztucznej inteligencji należy budować i wdrażać w sposób przejrzysty i odpowiedzialny

Prosty przykład: jeśli medyczny system sztucznej inteligencji zdiagnozuje osobę obarczoną wysokim ryzykiem zachorowania na raka w przyszłości, wytyczne UE pomogą zapewnić, że należy wykonać niektóre z poniższych czynności: Oprogramowanie nie jest stronnicze ani stronnicze ze względu na opinię pacjenta rasę lub płeć, a jednocześnie dostarczać możliwie najjaśniejszej i najbardziej przejrzystej informacji o swoim stanie zdrowia, a w szczególności nie może ingerować ani utrudniać decyzji pacjenta.

Zatem tak, te wytyczne skupiają się głównie na ograniczaniu i kontrolowaniu modeli sztucznej inteligencji, aby działały prawidłowo, ale tylko na poziomie administracyjnym i biurokratycznym, a nie na zapobieganiu aktom zabijania według wyobraźni pisarza Asimova.

UE: Systemy sztucznej inteligencji należy budować i wdrażać w sposób przejrzysty i odpowiedzialny

Aby opracować ten zestaw wytycznych, UE musiała zwołać grupę 52 ekspertów, prosząc ich o omówienie, uzgodnienie i przedstawienie 7 wymagań, które ich zdaniem powinny spełniać przyszłe systemy sztucznej inteligencji. Wymagania te są następujące:

  1. Ostateczna zdolność monitorowania i podejmowania decyzji musi nadal znajdować się w rękach ludzi: sztuczna inteligencja nie powinna, a raczej nie powinna być pozwalana na „deptanie” ludzkiej autonomii i samostanowienia. I odwrotnie, systemy sztucznej inteligencji nie powinny manipulować ludźmi ani ich zmuszać. W końcu ludzie muszą mieć możliwość interweniowania lub monitorowania każdej decyzji podejmowanej przez oprogramowanie AI w niezbędnych sytuacjach.
  2. Dokładne, bezpieczne i bezpieczne techniki wdrażania: każdy model sztucznej inteligencji po wdrożeniu, czy to w skali laboratoryjnej, czy w rzeczywistości, musi zapewniać dwa czynniki: bezpieczeństwo i dokładność, którymi są: Warunki wstępne. Innymi słowy, oprogramowanie AI nie powinno łatwo zostać złamane ani przejęte przez ataki zewnętrzne, a każda podejmowana przez nie decyzja powinna być absolutnie godna zaufania i podejmowana w najbardziej rozsądny sposób.
  3. Zapewnienie prywatności i zarządzania danymi: Dane osobowe gromadzone przez systemy sztucznej inteligencji muszą być ściśle zabezpieczone i całkowicie prywatne. Dane te nie mogą być ujawniane ani udostępniane żadnemu podmiotowi i nie można ich łatwo ukraść lub zgubić.
  4. Zapewnienie przejrzystości: Dane i algorytmy użyte do stworzenia systemu AI powinny być dostępne, a decyzje podejmowane przez oprogramowanie powinny być również jasno przedstawione i wyjaśnione. Innymi słowy, operatorzy muszą być w stanie wyjaśnić decyzje podejmowane przez ich systemy sztucznej inteligencji w konkretny i logiczny sposób.
  5. Zapewnij różnorodność, niedyskryminację i sprawiedliwość: usługi oparte na sztucznej inteligencji muszą być dostępne dla każdego, niezależnie od wieku, płci, rasy lub innych cech. Jednocześnie decyzje podejmowane przez sztuczną inteligencję nie mogą być ukierunkowane na jakiekolwiek cechy lub przedmioty.
  6. Pozytywny wpływ na środowisko i społeczeństwo: systemy sztucznej inteligencji muszą być wdrażane i rozwijane w sposób zrównoważony (tj. muszą być odpowiedzialne ekologicznie) i przyczyniać się do pozytywnych zmian społecznych.
  7. Odpowiedzialność: systemy sztucznej inteligencji muszą być kontrolowane i chronione za pomocą istniejących zabezpieczeń. Innymi słowy, należy szczerze przyznać, że system ma negatywny wpływ (jeśli taki istnieje), a operatorzy powinni ponosić odpowiedzialność za negatywny wpływ, jaki powodują ich systemy sztucznej inteligencji.

Prawdopodobnie zauważysz, że niektóre z powyższych twierdzeń są dość abstrakcyjne i trudne do oceny w sensie obiektywnym (na przykład definicja pozytywnej zmiany społecznej, którą niesie ze sobą sztuczna inteligencja, będzie się znacznie różnić w zależności od osoby i szerzej, między krajami ). Jednakże większość pozostałych elementów jest na ogół prostsza i można je sprawdzić i zagwarantować poprzez nadzór właściwych organów. Na przykład udostępnianie danych wykorzystywanych do szkolenia rządowych systemów sztucznej inteligencji może być dobrym sposobem na walkę z stronniczymi i nieprzejrzystymi algorytmami.

UE: Systemy sztucznej inteligencji należy budować i wdrażać w sposób przejrzysty i odpowiedzialny

Postanowienia tych wytycznych UE wyraźnie nie są prawnie wiążące, ale można je wykorzystać do ukształtowania przyszłego prawodawstwa projektowanego przez Unię Europejską, które będzie dotyczyło dziedziny sztucznej inteligencji. W przeszłości UE wielokrotnie mówiła, że ​​chce uczynić Europę pionierem na świecie we wdrażaniu „etycznych” modeli sztucznej inteligencji i opublikowaniu zestawu dokumentów zawierających wytyczne. To wyraźnie pokazuje, że jest gotowa do opracowania daleko idących przepisów regulacja i ochrona praw cyfrowych.

UE chce kształtować przemysł sztucznej inteligencji, którego podstawą będą standardy etyczne

W ramach wysiłków na rzecz stworzenia „etycznego” przemysłu sztucznej inteligencji wytyczne UE można postrzegać jako odskocznię do stworzenia „listy oceny zaufanej sztucznej inteligencji” – listy terminów, która może pomóc ekspertom znaleźć wszelkie słabe strony lub potencjalne zagrożenia związane z sztuczną inteligencją oprogramowanie, nawet jeśli zostało szeroko wdrożone. Lista ta może zawierać pytania takie jak: „Czy potrafisz zademonstrować, jak Twój system sztucznej inteligencji radzi sobie w złożonych sytuacjach i środowiskach?” lub „Czy potrafisz ocenić typ i zakres danych w swoim zbiorze danych?” ...

Oczywiście ta lista ewaluacyjna ma charakter jedynie wstępny, UE w najbliższej przyszłości będzie musiała jeszcze zebrać opinie od firm i ekspertów w dziedzinie sztucznej inteligencji. Już w 2020 r. UE opublikuje raport podsumowujący tę kwestię.

UE: Systemy sztucznej inteligencji należy budować i wdrażać w sposób przejrzysty i odpowiedzialny

Anny Hidvégi, menedżerka ds. polityki w grupie ds. praw cyfrowych Access Now i jeden z 52 ekspertów odpowiedzialnych za sporządzanie wytycznych UE, stwierdziła, że ​​kluczową częścią jest lista oceniająca. Najważniejszy punkt raportu: „Ten zestaw dokumentów pomaga zapewnić praktyczny , przyszłościowa perspektywa dotycząca zapobiegania potencjalnym szkodom powodowanym przez sztuczną inteligencję i minimalizowania ich”.

„Naszym zdaniem UE ma wystarczający potencjał i odpowiedzialność, aby stać się wiodącą organizacją w tych pracach. Ale poza tym uważamy również, że Unia Europejska nie powinna poprzestawać na zasadach moralnych. Powinni rozważyć nałożenie na firmy wydobywcze AI obowiązku przestrzegania prawa w przyszłości” – dodał Hidvégi.

Inni są sceptyczni, czy próba UE kształtowania sposobu rozwoju globalnej sztucznej inteligencji poprzez badania etyczne przyniesie duży skutek.

„Jesteśmy sceptyczni co do podejścia wiodącej organizacji europejskiej. Pomysł, że tworząc złoty standard dla etycznych systemów sztucznej inteligencji, UE będzie w stanie wywalczyć sobie miejsce w rozwoju światowego przemysłu sztucznej inteligencji, jest stosunkowo naciągany. Aby stać się liderem w kształtowaniu zasad etycznych dotyczących sztucznej inteligencji, UE musi najpierw stać się liderem w dziedzinie sztucznej inteligencji jako całości” – powiedziała Eline Ch Pivot, starsza analityk ds. polityki w Europejskim Centrum Innowacji Danych.

Co sądzisz o tym problemie? Zostaw swoje komentarze w sekcji komentarzy poniżej!


Europa utworzy grupę zadaniową ChatGPT

Europa utworzy grupę zadaniową ChatGPT

Organ zrzeszający krajowe organy nadzorujące prywatność w Europie poinformował w czwartek, że powołał grupę zadaniową zajmującą się ChatGPT

AI przewiduje czas śmierci człowieka z 78% dokładnością

AI przewiduje czas śmierci człowieka z 78% dokładnością

Duńscy i amerykańscy naukowcy współpracowali nad opracowaniem systemu sztucznej inteligencji o nazwie life2vec, zdolnego do przewidywania czasu śmierci człowieka z dużą dokładnością.

Sztuczna inteligencja przewiduje choroby układu moczowego na podstawie dźwięku moczu

Sztuczna inteligencja przewiduje choroby układu moczowego na podstawie dźwięku moczu

Algorytm sztucznej inteligencji o nazwie Audioflow może nasłuchiwać dźwięku oddawania moczu, aby skutecznie i skutecznie identyfikować nieprawidłowe wypływy moczu i powiązane z nimi problemy zdrowotne pacjenta.

Barmani, uważajcie: ten robot może przygotować koktajl w zaledwie 1 minutę

Barmani, uważajcie: ten robot może przygotować koktajl w zaledwie 1 minutę

Starzenie się i spadek liczby ludności Japonii spowodował, że w kraju brakuje znacznej liczby młodych pracowników, szczególnie w sektorze usług.

Setki ludzi rozczarowało się, gdy dowiedziały się, że dziewczyna, którą kochają, jest wytworem sztucznej inteligencji

Setki ludzi rozczarowało się, gdy dowiedziały się, że dziewczyna, którą kochają, jest wytworem sztucznej inteligencji

Użytkownik Reddita o imieniu u/LegalBeagle1966 jest jednym z wielu użytkowników zakochanych w Claudii, dziewczynie przypominającej gwiazdę filmową, która często udostępnia na tej platformie uwodzicielskie selfie, nawet nagie.

12 kolejnych potencjalnych firm dołącza do „sojuszu AI” Microsoftu.

12 kolejnych potencjalnych firm dołącza do „sojuszu AI” Microsoftu.

Microsoft właśnie ogłosił, że w jego programie AI for Good weźmie udział 12 kolejnych firm technologicznych.

Sztuczna inteligencja odtwarza postacie Dragon Ball z krwi i kości

Sztuczna inteligencja odtwarza postacie Dragon Ball z krwi i kości

Użytkownik @mortecouille92 wykorzystał moc narzędzia do projektowania graficznego Midjourney i stworzył wyjątkowo realistyczne wersje słynnych postaci Dragon Ball, takich jak Goku, Vegeta, Bulma i starszy Kame. .

7 technik poprawy odpowiedzi ChatGPT

7 technik poprawy odpowiedzi ChatGPT

Po prostu dodając pewne warunki lub konfigurując pewne scenariusze, ChatGPT może udzielić bardziej trafnych odpowiedzi na Twoje zapytania. Przyjrzyjmy się sposobom poprawy jakości odpowiedzi ChatGPT.

Podziwiaj piękne obrazy narysowane przez sztuczną inteligencję

Podziwiaj piękne obrazy narysowane przez sztuczną inteligencję

Midjourney to system sztucznej inteligencji, który wywołał ostatnio „gorączkę” w społeczności internetowej i świecie artystów ze względu na niezwykle piękne obrazy, które nie ustępują tym, które tworzą prawdziwi artyści.

Ten model sztucznej inteligencji był jednym z pierwszych „ekspertów”, którzy odkryli wiadomości o wybuchu zapalenia płuc w Wuhan.

Ten model sztucznej inteligencji był jednym z pierwszych „ekspertów”, którzy odkryli wiadomości o wybuchu zapalenia płuc w Wuhan.

Kilka dni po ogłoszeniu przez Chiny wybuchu epidemii, mając dostęp do danych dotyczących globalnej sprzedaży biletów lotniczych, system sztucznej inteligencji BlueDot w dalszym ciągu dokładnie przewidywał rozprzestrzenianie się wirusa korona z Wuhan do Bangkoku, Seulu, Tajpej i Tokio.