Aspekty etyczne projektowania rozwiązań zaawansowanej automatyzacji i robotyzacji

Kategoria II
Aspekty etyczne projektowania rozwiązań zaawansowanej automatyzacji i robotyzacji

W pogoni za możliwie jak największymi korzyściami z maksymalnie szerokiego zastosowania zaawansowanej automatyzacji i robotyzacji (ze szczególnym uwzględnieniem elementów sztucznej inteligencji) nie można pominąć kwestii etycznych.

Zgodnie z Encyklopedią PWE etyka to "ogół norm moralnych uznawanych w pewnym czasie przez jakąś zbiorowość społeczną jako punkt odniesienia dla oceny i regulacji postępowania w celu integracji grupy wokół pewnych wartości, synonim moralności".

O etyce w kontekście robotów można mówić z dwóch perspektyw - prawa robotów oraz etyki robotów w odniesieniu do człowieka.

Jeżeli chodzi o prawa robotów (rozumiane jako moralne zobowiązania ludzi wobec swoich maszyn, podobne do praw człowieka lub praw zwierząt) - to pierwszy krok (bardziej z obszaru PR, niż rzeczywisty) został już wykonany:w październiku 2017 r. robot Sophia otrzymała obywatelstwo Arabii Saudyjskiej. Futurolog Ray Kurzweil zakłada, że do roku 2029 problem posiadania praw przez roboty stanie się rzeczywistym zagadnieniem. Większość badaczy uważa jednak, że jest to zbyt optymistyczna data, a prawdziwe wyzwania w tym obszarze pojawią się za około pół wieku.

Zdecydowanie bardziej aktualnym tematem jest etyka maszyn (lub moralność maszyn). Jest to dziedzina badań zajmująca się projektowaniem moralnych sztucznych agentów (Artificial Moral Agents - AMA), robotów lub programów komputerowych, które zachowują się moralnie lub moralnie. Pierwowzorem literackim tego obszaru są sformułowane przez Isaaca Asimova jeszcze w 1942 roku trzy prawa robotów.

Od tego momentu powstało wiele alternatywnych koncepcji, m.in.

Obecnie, w sytuacji, w której coraz więcej firm zaczyna budować rozwiązania wykorzystujące elementy sztucznej inteligencji, warto jest uwzględnić w procesie ich projektowania zagadnienia etyczne. Przykładem tego może być podejście zaproponowane przez Raya Wanga, badacza z firmy analitycznej Constellation Research.

Zgodnie z nim tworzone rozwiązanie powinno być:

  • Transparentne - algorytmy, atrybuty i korelacje powinny być dostępne do inspekcji dla wszystkich zainteresowanych;
  • Objaśnialne - ludzie powinni być w stanie zrozumieć, w jaki sposób systemy sztucznej inteligencji dochodzą do swoich decyzji kontekstowych;
  • Odwracalne - organizacje muszą być w stanie w razie potrzeby odwrócić proces uczenia (tj. oduczyć system sztucznej inteligencji określonej wiedzy/zachowań);
  • Trenowalne - systemy sztucznej inteligencji muszą posiadać umiejętność uczenia się od ludzi i innych systemów;
  • Sterowane przez człowieka - wszystkie decyzje powinny zaczynać się i kończyć punktami decyzyjnymi realizowanymi przez człowieka.

Tematyka projektowania etycznego jest także w obszarze zainteresowania IEEE. Pod auspicjami tej organizacji postała druga edycja opracowania: "Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems (A/IS)". Materiał ten powstał w wyniku  prac kilkusetosobowego zespołu reprezentującego środowiska akademickie, przemysłowe, społeczeństwa obywatelskiego i rządowe. Celem raportu jest stworzenie kanwy do publicznej dyskusji na temat tego, w jaki sposób można ustanowić etyczne i społeczne ramy wdrażania inteligentnych i autonomicznych systemów i technologii, uwzględniając przy tym różny kontekst kulturowy.

Na ten moment zagadnienie etyki może wydawać się nam problemem mocno odległym od rzeczywistości. Patrząc jednak na bardzo mocno zwiększający się stopień wykorzystania AI w codziennym życiu (w tym także w biznesie) warto już o tym myśleć od samego początku. Stawiam nawet tezę, że za moment może pojawić się zupełnie nowy zawód, związany z przestrzeganiem reguł etycznych przy projektowaniu robotów (bo co się stanie w sytuacji, gdy część robotów będzie przestrzegać takich praw, a część będzie nastawiona na maksymalizację zysku za wszelką cenę...).

,