Bardzo często snujemy fantazje na temat teoretycznych scenariuszy konfrontacji z pewnymi rodzajami inteligencji, które działają wbrew naszym interesom. Co ciekawe, jeśli chodzi o etyczne korzystanie ze sztucznej inteligencji (AI), znajdujemy się w punkcie zwrotnym. Ten postęp technologiczny zwiastuje bezprecedensowy rozwój. Niesie jednak ze sobą również pewne wyzwania i trudności, które wymagają refleksji oraz bezpośredniego działania.
Te przyspieszone zmiany zrodziły szereg problemów natury społecznej. W związku z tym oznaczają, że walczymy o dotrzymanie tempa tej nowej formie inteligencji. Jakie więc działania powinniśmy podjąć?
Na początek musimy ustalić moralne, a prawdopodobnie także prawne, granice korzystania ze sztucznej inteligencji. Jeśli tego nie zrobimy, narazimy się na fakt, że to, co ma być rozwojem cywilizacji, w rzeczywistości przyniesie dokładnie odwrotny skutek.
Etyczne korzystanie ze sztucznej inteligencji – dlaczego jest ważne?
Debata na temat sztucznej inteligencji i jej wykorzystania jest szeroka i złożona. Istnieje jednak pewna zgodność co do norm moralnych w tym zakresie.
1. Sztuczna inteligencja w służbie ludzkich interesów
Artykuł opublikowany w Real Academia de Ciencias Morales y Políticas twierdzi, że z humanistycznego punktu widzenia AI ma za zadanie zminimalizować możliwe do uniknięcia cierpienie ludzi. W tym miejscu pojawia się koncepcja złośliwego wykorzystania sztucznej inteligencji. Odnosi się do potencjalnych zagrożeń, jakie niewłaściwe użycie tych programów stwarza dla społeczeństwa.
Bez wątpienia należy zagwarantować bezpieczeństwo jednostek, a także prywatność i tożsamość środowiska. W przeciwnym razie zasada minimalizacji cierpienia zostałaby całkowicie naruszona.
2. Unikanie dyktatury danych
Gromadzenie ogromnych ilości danych (big data) jest motorem postępu w tak różnych dziedzinach, jak technologia medyczna i rozwój gospodarczy. Jednak gdy dane są wykorzystywane do wypaczenia populacji i jej segregacji, mówimy o „dyktaturze danych”, twierdzi biuletyn CSIC.
Kontynuując ten przykład, sztuczna inteligencja mogłaby zebrać obszrne dane dotyczące wyników nowego leczenia lub występowania problemów zdrowotnych. W tym scenariuszu musielibyśmy zadać sobie pytanie, w jakim stopniu jest etyczne, aby ubezpieczyciel miał dostęp do tego rodzaju danych w celu przedstawienia nam wyceny lub zapewnienia nam ochrony ubezpieczeniowej.
3. Poszanowanie praw neurologicznych
Duże zbiory danych można również wykorzystać do przewidywania ludzkich zachowań. Można to w dużym stopniu wykorzystać w dziedzinie marketingu. Dlatego, aby etycznie korzystać ze sztucznej inteligencji, takie dane nie powinny być narzędziem wpływającym na tożsamość użytkowników lub ich swobodę poznawczą. Są to prawa neurologiczne.
W dziedzinie sztucznej inteligencji konieczne jest zapewnienie poszanowania praw neurologicznych podczas gromadzenia, przechowywania, analizowania i wykorzystywania danych mózgowych. Obejmuje to uzyskanie świadomej i wyraźnej zgody od osób fizycznych przed zebraniem danych z ich mózgów. Ponadto należy chronić prywatność i poufność danych oraz wykorzystywać je w sposób etyczny i odpowiedzialny.
Co więcej, poszanowanie naszych praw neurologicznych musi gwarantować, że sztuczna inteligencja nie będzie wykorzystywana do manipulowania naszą tożsamością, swobodą poznawczą lub autonomią, lub do wywierania na nią nadmiernego wpływu.
Obejmuje to unikanie wszelkiej dyskryminacji, stygmatyzacji lub manipulacji na podstawie danych gromadzonych z mózgu. Ponadto oznacza to zapewnienie, że decyzje i działania oparte na działaniu sztucznej inteligencji są przejrzyste, wytłumaczalne i sprawiedliwe. Jest to jednak nie lada wyzwanie, ponieważ większość modeli, z którymi współpracuje sztuczna inteligencja, jest nieprzejrzysta. W efekcie dają dobre wyniki, ale nie wiemy dlaczego.
4. Etyczne korzystanie ze sztucznej inteligencji a ochrona godności człowieka
Niektóre zawody, zwłaszcza te związane z opieką, są uważane za nieodpowiednie dla sztucznej inteligencji i robotów. To dlatego, że wymagają zdolności do odczuwania empatii i okazywania szacunku. Na przykład nieetyczne byłoby poddawanie jednostki terapii kierowanej przez sztuczną inteligencję, ani też wykorzystywanie sztucznej inteligencji jako policjanta lub sędziego.
W rzeczywistości koncepcja empatii u robotów stwarza niezwykle interesujące wyzwania ze względu na naturę ludzkich emocji i świadomości. Chociaż roboty można zaprogramować tak, aby rozpoznawały ludzką mimikę twarzy, ton głosu i inne sygnały emocjonalne i reagowały na nie, nie mają one zdolności odczuwania i rozumienia emocji w taki sam sposób jak my.
W artykule opublikowanym w Economía y Sociedad wyjaśniono, że inteligentnym technologiom przypisuje się funkcje związane z zarządzaniem emocjami. W konsekwencji podobnie jak ludzie popadają w sprzeczność między moralnym obowiązkiem a scenariuszem, w którym jest on realizowany.
5. Utrzymywanie otwartych źródeł
Jest jedno stwierdzenie, które dominuje na temat sztucznej inteligencji. Chodzi o to, że jej kod powinien być otwarty i publiczny. Co więcej, jej rozwój nie powinien leżeć w rękach nielicznych, ponieważ jest to technologia, która bezpośrednio wpływa na życie ludzi, konfigurację społeczną, a nawet ich kulturę. Rzeczywiście, należy zagwarantować przejrzystość i zapobiegać złośliwemu wykorzystaniu sztucznej inteligencji.
Etyczne korzystanie ze sztucznej inteligencji – dlaczego jest ważne?
Od bezpieczeństwa narodowego po korzystanie z aplikacji, od polityki po medycynę, wykorzystanie sztucznej inteligencji musi być oceniane etycznie w sposób bezstronny. Jakiekolwiek złośliwe użycie jej nie tylko spowodowałoby lub zwiększyłoby zagrożenie dla naszego społeczeństwa, ale także pogłębiłoby wszelkie negatywne konsekwencje.
Ponieważ sztuczna inteligencja zmienia nasz świat i kulturę, agenci pasywni muszą równolegle rozwijać kulturę odpowiedzialności i dobrego wykorzystania. Wbrew temu, co myśli wiele osób, nie oznacza to jedynie uczenia się i stosowania środków bezpieczeństwa cybernetycznego.
Promowanie takiej odpowiedzialnej kultury to jednak dopiero pierwszy krok. Istotne jest, aby rządy i firmy podjęły działania na rzecz etycznego zarządzania sztuczną inteligencją. Na szczęście refleksja moralna już się rozpoczęła i nastąpił pewien postęp w tym zakresie, jak stwierdzono w Derecho Global.
Skuteczność wniosków z tej refleksji będzie zależała od tego, czy spełnią one swój humanistyczny cel. W tej chwili ci, którzy naprawdę nas dominują, to ludzie stojący za robotami. Rzeczywiście, na razie za całą sztuczną inteligencją nadal stoi ludzka inteligencja.
Bibliografia
Wszystkie cytowane źródła zostały dokładnie sprawdzone przez nasz zespół, aby zapewnić ich jakość, wiarygodność, trafność i ważność. Bibliografia tego artykułu została uznana za wiarygodną i posiadającą dokładność naukową lub akademicką.
- The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. https://doi.org/10.17863/CAM.22520
- Cortina Orts, A. (2019). Ética de la inteligencia artificial. Anales de la Real Academia de Ciencias Morales y Políticas, 379-394. Ministerio de Justicia. https://www.boe.es/biblioteca_juridica/anuarios_derecho/abrir_pdf.php?id=ANU-M-2019-10037900394
- García Pastor, E. (2022). Definiendo una inteligencia artificial más ética. Consejo Superior de Investigaciones Científicas. https://www.csic.es/es/actualidad-del-csic/definiendo-una-inteligencia-artificial-mas-etica
- González Arencibia, M., & Martínez Cardero, D. (2020). Dilemas éticos en el escenario de la inteligencia artificial. Economía y Sociedad, 25(57), 93-109. https://dx.doi.org/10.15359/eys.25-57.5
- Fernández Fernández, J. L. (2021). Hacia el Humanismo Digital desde un denominador común para la Cíber Ética y la Ética de la Inteligencia Artificial. Disputatio. Philosophical Research Bulletin, 10(17), 107-130. https://dialnet.unirioja.es/servlet/articulo?codigo=8018155
- Porcelli, A. (2020). La inteligencia artificial y la robótica: sus dilemas sociales, éticos y jurídicos. Derecho global. Estudios sobre derecho y justicia, 6(16), 49-105. Epub 27 de enero de 2021.https://doi.org/10.32870/dgedj.v6i16.286
- Recomendación sobre la ética de la inteligencia artificial. (2021). Unesco.org. Recuperado 11 de abril de 2023. https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa
- Terrones Rodríguez, A. L. (2018). Inteligencia artificial y ética de la responsabilidad. Cuestiones de Filosofía, 4(22). https://www.researchgate.net/publication/326907301_Inteligencia_artificial_y_etica_de_la_responsabilidad