Etyczna sztuczna inteligencja: jak zachować człowieczeństwo

#CTP

Nie ma wątpliwości, że sztuczna inteligencja (AI) zmienia świat. Podsyca również rosnącą debatę na temat wpływu, jaki te nowe technologie mają i mogą mieć na przyszłość. Rozmowa ta odbywa się na pierwszej linii rozwoju sztucznej inteligencji i jest wzmacniana przez niektóre z największych nazwisk w biznesie i środowisku akademickim. Dla jej najbardziej zagorzałych zwolenników, korzyści płynące ze sztucznej inteligencji dla ludzkości są pozornie nieograniczone: zakończenie głodu, ubóstwa i chorób oraz rozwiązanie problemu zmian klimatycznych znajdują się na liście jej obietnic.

Ale jest też druga strona. Przełomowa moc sztucznej inteligencji rodzi szereg kwestii etycznych, prawnych i moralnych, w tym obawy o prywatność, uprzedzenia rasowe i inne uprzedzenia społeczne, potencjalne niszczenie miejsc pracy i niezgodę społeczną. Nie wspominając już o obawach związanych z niezawodnością, bezpieczeństwem i odpowiedzialnością systemów AI. Chór ostrożnych głosów wzywających do międzynarodowego uregulowania wielu zaawansowanych technologii sztucznej inteligencji staje się coraz głośniejszy.

 

Chociaż istnieją różne poglądy na temat stopnia związanego z tym ryzyka, eksperci są zgodni co do tego, że tempo rozwoju sztucznej inteligencji będzie postępować wykładniczo - i znacznie szybciej, niż sądzi laik. Ale jeśli dobrze wykorzystamy sztuczną inteligencję, jej korzyści będą ogromne. Nadszedł czas, aby dołączyć do globalnej rozmowy na temat sztucznej inteligencji, aby zapewnić, że wykorzystamy tę potężną nową technologię z korzyścią dla wszystkich. Zacznijmy rozmawiać!

 

Ramy debaty

Stosowane obecnie technologie sztucznej inteligencji rodzą fundamentalne pytania, które wykraczają daleko poza zwykłe kwestie bezpieczeństwa produktów. Ostrzegawcze głosy pochodzą od wiodących światowych firm technologicznych, naukowców, badaczy i przedsiębiorców, a także grup strażniczych i anty-technologów.

Chociaż prawdą jest, że zakłócenia spowodowane innowacjami technologicznymi nie są niczym nowym, ta "czwarta rewolucja przemysłowa" dzieje się znacznie szybciej, niż ktokolwiek się spodziewał, co prowadzi zarówno do utopijnych, jak i dystopijnych argumentów, że sztuczna inteligencja albo wyniesie ludzkość na nowe wyżyny, albo zmieni nas w niewolników po rewolucji robotów.
Nagłówkowe postępy w systemach głębokiego uczenia AI, które działają w półautonomicznych samochodach, technologiach rozpoznawania twarzy i chat-botach, i które opanowały starożytną chińską grę Go, są nie tylko ekscytującymi postępami technologicznymi, ale są wyraźnymi wskaźnikami, że sztuczna inteligencja rozwija się w coraz szybszym tempie.

 

Odpowiedzialność jest rzeczą ludzką

Szybkość i skala zmian w świecie sztucznej inteligencji, w połączeniu z licznymi zagrożeniami i "znanymi niewiadomymi", również popychają debatę etyczną na szybki tor. Niektórzy z czołowych światowych wynalazców i inwestorów w dziedzinie sztucznej inteligencji wzywają do wprowadzenia regulacji i zakazów dotyczących np. broni autonomicznej.

Podczas gdy "zabójcze roboty" trafiają na pierwsze strony gazet, istnieje wiele innych obszarów budzących obawy. Jednym z nich jest prywatność. Rosnąca zdolność inteligentnych systemów do monitorowania nie tylko każdego naszego ruchu online, ale także do śledzenia nas w świecie rzeczywistym za pomocą technologii rozpoznawania twarzy, przy braku przepisów regulujących tę inwazyjną działalność, zaczyna budzić pewne wątpliwości.

W lipcu prezes Microsoftu, Brad Smith, opublikował na swojej stronie internetowej list wzywający Kongres Stanów Zjednoczonych do uchwalenia przepisów regulujących i ograniczających wykorzystanie technologii rozpoznawania twarzy. Jak ujął to Smith: "Wydaje się szczególnie ważne, aby dążyć do przemyślanej regulacji rządowej technologii rozpoznawania twarzy, biorąc pod uwagę jej szerokie konsekwencje społeczne i potencjał do nadużyć".

Smith wymienia szereg obaw, w tym możliwość podejmowania przez organy ścigania decyzji o tym, kogo śledzić, zatrzymywać i ścigać w oparciu o wadliwe lub stronnicze systemy; w jaki sposób rządy mogą wykorzystywać technologię do tłumienia wolności słowa i sprzeciwu; oraz w jaki sposób sprzedawcy detaliczni i inne firmy mogą dosłownie śledzić każdy nasz ruch i udostępniać te informacje innym systemom sztucznej inteligencji - a wszystko to bez naszej wiedzy lub zgody.

Rzeczywiście, wiele firm zdaje sobie sprawę z potrzeby przeciwdziałania zagrożeniom związanym ze sztuczną inteligencją, dołączając do naukowców, technologów, etyków, ekspertów prawnych, ekspertów ds. polityki publicznej i obrońców praw człowieka w zadawaniu trudnych pytań o to, jak sprawić, by technologie nowej generacji były etyczne i skoncentrowane na człowieku.

 

Liderzy stada

"Technologia nie jest neutralna pod względem wartości, a technolodzy muszą wziąć odpowiedzialność za etyczny i społeczny wpływ swojej pracy".

Ten cytat, zamieszczony na stronie DeepMind, pochodzi od zespołu stojącego za jednymi z najbardziej zdumiewających postępów w uczeniu maszynowym z wykorzystaniem sztucznych sieci neuronowych. Jest to sentyment powtarzany przez wielu znanych naukowców, nauczycieli akademickich i liderów biznesu. Bill Gates, Elon Musk i nieżyjący już Stephen Hawking wezwali do podjęcia wspólnych międzynarodowych działań w celu uregulowania technologii sztucznej inteligencji w sposób zdecydowanie proludzki. Wszyscy oni dostrzegają konieczność ochrony praw jednostki i zapewnienia płynnego przejścia do przyszłości opartej na sztucznej inteligencji.

Ci liderzy myśli robią więcej niż tylko mówią. Angażują się w szereg instytutów, ośrodków analitycznych i organizacji pozarządowych, które zagłębiają się w kwestie etyczne i społeczne związane ze sztuczną inteligencją, aby znaleźć praktyczne rozwiązania.

Lista takich organizacji jest duża i na wysokim poziomie. Partnership on AI to konsorcjum branży technologicznej zrzeszające wiodących twórców sztucznej inteligencji, w tym Amazon, Facebook, Google i jego spółkę zależną DeepMind, Microsoft, Apple i IBM. Ich misją jest ustanowienie najlepszych praktyk dla etycznych systemów sztucznej inteligencji oraz edukowanie społeczeństwa na temat sztucznej inteligencji i jej wpływu.

Future of Life Institute, współzałożony przez Elona Muska i Stephena Hawkinga, koncentruje się na egzystencjalnych zagrożeniach dla ludzkości stwarzanych przez sztuczną inteligencję. AI Now, instytut badawczy z siedzibą na Uniwersytecie Nowojorskim, koncentruje się na czterech kluczowych obszarach: uprzedzeniach i integracji, pracy i automatyzacji, prawach i wolnościach oraz bezpieczeństwie i infrastrukturze cywilnej. DeepMind Ethics & Society, oddzielna jednostka pionierów AI DeepMind, finansuje zewnętrzne badania nad obszarami ryzyka AI, takimi jak prywatność, przejrzystość i sprawiedliwość, wpływ ekonomiczny, zarządzanie i odpowiedzialność, zarządzanie ryzykiem oraz moralność i wartości.

Sztuczna inteligencja jest zjawiskiem globalnym o globalnych implikacjach, więc dobrą wiadomością jest to, że sztuczna inteligencja jest również przedmiotem zainteresowania wiodących organizacji międzynarodowych i wielonarodowych. Na przykład Światowe Forum Ekonomiczne jest jedną z globalnych grup pomagających w prowadzeniu debaty na temat zagrożeń związanych ze sztuczną inteligencją i udziela swojego głosu apelom o międzynarodowe uregulowanie sztucznej inteligencji w Organizacji Narodów Zjednoczonych.

Stowarzyszenie IEEE Standards Association, które opracowuje globalne standardy w wielu branżach, jest również wiodącym głosem wzywającym do uregulowania kwestii sztucznej inteligencji na poziomie globalnym. W 2017 r. utworzyło ono IEEE Global Initiative on Ethics and Autonomous Systems and Intelligent Systems, której misję warto zacytować w całości: "Zapewnienie, że każda zainteresowana strona zaangażowana w projektowanie i rozwój autonomicznych i inteligentnych systemów jest wykształcona, przeszkolona i upoważniona do priorytetowego traktowania kwestii etycznych, tak aby technologie te były zaawansowane z korzyścią dla ludzkości". Organizacja publikuje również coroczny raport "Ethically Aligned Design", który może być ostatecznym globalnym traktatem na temat kwestii związanych ze sztuczną inteligencją i etyką.

 

Europa: lider myśli w dziedzinie sztucznej inteligencji

Podczas gdy Europa jako całość pozostaje nieco w tyle za Ameryką Północną, Japonią i Chinami w rozwoju strategii AI, wkrótce ma się to zmienić.

W kwietniu tego roku grupa czołowych europejskich naukowców opublikowała list otwarty wzywający do utworzenia ELLIS - Europejskiego Laboratorium Uczenia się i Inteligentnych Systemów. Ten finansowany przez UE instytut badawczy miałby laboratoria w kilku państwach członkowskich UE i napędzałby nie tylko najnowocześniejsze badania nad sztuczną inteligencją, ale także debatę na temat zapewnienia, że sztuczna inteligencja pozostanie etyczna.

Francja niedawno zaprezentowała własną strategię AI, której centralnym elementem jest etyka, a ELLIS będzie opierać się na tym podejściu i je wzmacniać. Istnieją wszelkie powody, by sądzić, że ELLIS zacznie nabierać kształtu w najbliższej przyszłości, a jednym z jego deklarowanych celów jest również powstrzymanie szybkiego drenażu mózgów europejskich talentów do Stanów Zjednoczonych i Azji.

Oczekuje się, że pierwszym krokiem w kierunku ELLIS będzie współpraca w zakresie sztucznej inteligencji między Francją a Niemcami, a później dołączą do nich inni członkowie UE. Oczekuje się, że każde lokalne laboratorium będzie obiektem o wartości 100 mln EUR z rocznym budżetem w wysokości około 30 mln EUR. Oczekuje się, że po narodzinach ELLIS będzie głównym magnesem dla prywatnych inwestycji w technologie sztucznej inteligencji.

 

Dołącz do rozmowy

Firmy na całym świecie korzystają ze sztucznej inteligencji ze wszystkich właściwych powodów. Dla wielu firm inteligentne wdrożenie sztucznej inteligencji ma kluczowe znaczenie dla zapewnienia konkurencyjności w tym szybko zmieniającym się krajobrazie. Sztuczna inteligencja i inne zaawansowane technologie już zaczęły rewolucjonizować miejsca pracy w różnych branżach, a my jesteśmy dopiero w powijakach tej technologicznej zmiany.

Niedawne badanie McKinsey przewiduje, że całkowita wartość dodana sztucznej inteligencji dla globalnej gospodarki w 19 branżach i dziewięciu funkcjach biznesowych w nadchodzącej dekadzie wyniesie od 3,5 do 5,8 bln USD rocznie. Najnowsze badania PwC potwierdzają te prognozy i przewidują, że sztuczna inteligencja może zwiększyć globalny PKB nawet o 14% do 2030 r., co zwiększyłoby światową gospodarkę o dodatkowe 15,7 bln USD.

Firmy, które przygotują się i zrozumieją sztuczną inteligencję, zyskają znaczną przewagę nad tymi, które tego nie zrobią. Kwestie odpowiedzialności prawnej i braku przejrzystości w odniesieniu do procesów decyzyjnych systemów sztucznej inteligencji są kluczowe dla firm, które muszą rozważyć przed wprowadzeniem inwestycji w sztuczną inteligencję. Brak precedensu w tym obszarze wzmacnia potrzebę posiadania przez firmy silnego zbioru zasad dotyczących sztucznej inteligencji i zapewnienia zgodności z nowymi przepisami krajowymi i międzynarodowymi, które prawie na pewno są w drodze.

Istnieją również bardziej przyziemne ograniczenia sztucznej inteligencji, a mianowicie to, że jest ona nadal nieco ograniczona w porównaniu do zdecydowanej większości zadań związanych z pracą, które obecnie wykonują ludzie. Tylko operacje, które mogą skorzystać z dostępnej technologii wdrożonej na dużą skalę, muszą być traktowane poważnie, ponieważ w przeciwnym razie koszty wdrożenia sztucznej inteligencji przewyższają jej korzyści, zwłaszcza gdy uwzględni się takie kwestie, jak odprawy pracowników i koszty przekwalifikowania. W zależności od branży, sztuczna inteligencja może mieć również nieprzewidziany i niekorzystny wpływ na markę firmy i jej podstawową działalność. Najlepiej jest spojrzeć (i pomyśleć) przed skokiem.

Sztuczna inteligencja to ogromny temat. Łatwo jest zagubić się w jej wielu euforycznych obietnicach, a także w wielu dystopijnych scenariuszach i egzystencjalnych dylematach, które przedstawia. Ale jedno jest pewne: postępy w dziedzinie sztucznej inteligencji, które mają miejsce dzisiaj, już teraz zmuszają nas do ponownego przemyślenia niektórych z naszych podstawowych założeń dotyczących takich rzeczy, jak natura pracy, cele społeczeństwa i to, co to znaczy być człowiekiem.

Jeśli wierzyć ekspertom, zmiany te nadchodzą szybko. Nigdy nie było lepszego czasu, aby mądrze podejść do sztucznej inteligencji.

 

Jaki rodzaj nowego wspaniałego świata?

Najpopularniejsze filmowe koncepcje świata zaludnionego futurystycznymi systemami sztucznej inteligencji skłaniają się ku dystopijnym krajobrazom. Większa utopijna wizja sztucznej inteligencji, która choć jest łagodna dla ludzkości, ma silny wymiar etyczny i popchnie ludzkość dalej w jej ewolucyjnej podróży.
Chociaż obie wersje są z pewnością kontrowersyjne, dobrą wiadomością jest to, że przyszłość jest w naszych rękach. Świat obudził się na sztuczną inteligencję i wszystko, czego potrzeba, to właściwa perspektywa w połączeniu z mądrymi decyzjami już dziś. Partnerstwo człowiek-maszyna jest możliwe. Świat Star Trek jest przykładem przyszłości opartej na sztucznej inteligencji, do której powinniśmy dążyć, podczas gdy ta spopularyzowana w "Terminatorze" jest możliwa, ale wymaga teraz ludzi, aby określić ten wynik.