Do tej pory najgroźniejszy atak maszyn, z jakim miałem do czynienia, to napaść ze strony tostera, który niemal spadł mi na stopę. Mądre głowy z laboratoriów badawczych twierdzą jednak, że kiedyś faktycznym problemem może być to, że jakaś maszyna naprawdę mnie znienawidzi. Bo otrzyma dar inteligencji.

Pierwszy kontakt ze „sztuczną inteligencją” miałem w podstawówce, czyli w zamierzchłych czasach, kiedy Nasza-Klasa tak naprawdę dopiero rozwijała skrzydła (a teraz znika na zawsze). Wszedłem sobie na stronę, której nazwy już nie pomnę – to był albo adres sadurski.com, albo dobryhumor.pl, obie z – hehe – żarcikami.

Jedną z atrakcji była możliwość rozmowy z Pankiem Frankiem – rysunkową postacią stylizowaną na punka, za którą oczywiście krył się prosty algorytm. W teorii miał odpowiadać na moje zaczepki na czacie, w praktyce wyrzucał po prostu losowe zdania, niezależnie od tego, co wpisaliśmy („Hej!” – „Nie chcę mi się z tobą gadać…”). Tyle ze sztucznej inteligencji.

Była to oczywiście zabawa, po której nikt się nie spodziewał, że przerodzi się w poważne dysputy człowieka z maszyną (chyba że 11-letni ja). Jakże przyjemne było jednak moje zaskoczenie parę lat później, gdy zacząłem czatować z naprawdę dobrze napisanym botem, który na tysiąc moich zaczepek miał przygotowanych tysiąc różnych odpowiedzi (i pewnie jeszcze kilka w zanadrzu).

Jak się okazuje, bota można nauczyć dużo gorszych słów niż “pupa” (fot. mohamed_hassan, Pixabay License).

Bot, który wpadł w złe towarzystwo

Te internetowe fikołki mają i jednak ciemniejszą stronę. Kilka lat temu Microsoft opracował bota, którego nazwano Tay. Nasza zaprogramowana koleżanka (na awatarze bot mi wyglądał na kobietę) działała na Twitterze – użytkownicy tego portalu mogli wchodzić z nią w interakcje, a ona na bazie tych kontaktów miała ulepszać swoje zdolności.

Wyszło dokładnie tak, jak to sobie wyobrażacie. Ludzie zaczęli podrzucać Tay różne słówka i tematy, które – eufemistycznie mówiąc – nie dodały botowi elegancji. Po kilkunastu godzinach działania trzeba było zwinąć projekt, bo SI zaczęło wrzucać tweety o treściach rasistowskich albo seksualnych.

W przypadku zapytania w stylu „Czy Holokaust istniał?” Tay odpowiadała, że „został zmyślony” – z emotką klaskania na końcu wpisu. Chyba jednak nawet nierozwinięta Tay okazała się mądrzejsza od prawdziwych ludzi, którzy na potrzeby niewyszukanego trollingu unicestwili ten projekt.

No i właśnie – możemy przejść do meritum dotyczącego sztucznej inteligencji. I żeby było ciekawiej, nie odskoczymy zbyt daleko od Microsoftu. Brad Smith, czyli prezes wspomnianej firmy, udzielił ostatnio wypowiedzi, w której przestrzegał, że jeśli w ciągu najbliższych kilku lat nie znajdziemy rozwiązań prawnych dotyczących SI, to zrobi się naprawdę nieciekawie.

Smith skonkretyzował, że jego obawy dotyczą przede wszystkim tego, w jaki sposób sztuczna inteligencja jest w stanie magazynować dane na dużą skalę, co może potem zostać wykorzystane przeciw ludziom, np. na potrzeby masowej inwigilacji.

Szef Microsoftu użył do tego dość mocnego porównania, że bez stosownej legislacji w skali świata czeka nas „Rok 1984”, tyle że w 2024 roku i w rzeczywistości, a nie na kartach książki. Uwielbiam porównania do Orwella – za każdym razem, gdy takie pada, to jestem niemal pewny, że ktoś hiperbolizuje, a (czasem) bonusowo niewiele przy tym wie o pisarzu.

Tym razem jednak jestem w stanie się zgodzić ze Smithem – nie dlatego, że zakładam jakąś informacyjno-bazodanową katastrofę w najbliższych latach, ale dlatego, że tak prężnie rozwijającą się działkę jak wykorzystanie sztucznej inteligencji warto po prostu trzymać w ryzach. Niekoniecznie mocno restrykcyjnych, ale jednak.

SI – pomaga i krzywdzi

Trzeba przy tym patrzeć na sprawę na chłodno – SI może być źródłem problemów i narzędziem ucisku. Nie dalej jak kilka dni temu BBC donosiło, że w Chinach sztuczna inteligencja ma być wykorzystywana przeciwko Ujgurom, muzułmańskiej mniejszości etnicznej.

Według informatora telewizji na komisariatach kamery rejestrują ich twarze, a program bada ich pory skórne, analizując zmiany nastawienia emocjonalnego. Całość to coś na kształt zaawansowanego wykrywacza kłamstw, który – jak podejrzewam – nie miałby w swym założeniu być wykorzystywanym zgodnie z literą prawa. Zresztą w artykule wspomniano, że wszystko to ma służyć przed-osądowi bez większych dowodów.

Kwestie inwigilacji to jedno, ale rozwój sztucznej inteligencji przynosi zdecydowanie więcej zagwozdek. Google już kilka lat temu rozwijało Duplex – poboczny projekt swojego Asystenta, który był w stanie zadzwonić w dane miejsce i głosem z syntezatora załatwić za nas różne sprawy – umówić się do lekarza, wyjaśnić sprawę w urzędzie i tak dalej.

No nie ma co, brzmi to naprawdę nieźle, a zwłaszcza dla mnie. Jeśli muszę wykonać telefon w jakieś nieznane mi miejsce albo, co gorsza, odebrać połączenie od kogoś nieznajomego, to dostaję skrętu kiszek. Wiem, nie świadczy to o mnie za dobrze, gdyż pracuję jako dziennikarz. Mimo to, tak po prostu czasem mam.

Problem zacznie się jednak, kiedy ktoś podrobi nasz głos, co w dzisiejszych czasach nie będzie problemem, i wykorzystując zaawansowany program zacznie nam mieszać w życiu albo po prostu dla żartu nabierze nam 100 chwilówek, bo komu by się tam chciało weryfikować wszystko. Albo zadzwoni do naszego szefa, żeby po serii niewybrednych żartów zerwać połączenie.

Oczywiście pewnie akurat w czymś takim Google specjalizować się nie będzie, ale jakieś anony bystrzaki od SI – w przyszłości – już może. Nie jest jednak wykluczone, że w końcu udział człowieka w takowym szwindlu okaże się zbędny.

Czy maszyny kiedyś staną się mądrzejsze od nas? Patrząc po różnych internetowych dyskusjach – nie powinno to być bardzo trudne (fot. geralt, Pixabay License).

Matriksowe klimaty

Badacze z Towarzystwa Maxa Plancka stwierdzili podobno, że superinteligentna sztuczna inteligencja (uch, karkołomne sformułowanie) może znaleźć się w końcu poza kontrolą człowieka, a w dalszej perspektywie może obrócić się przeciwko nam, bowiem już dziś naukowcom czasem się wymyka to, w jaki sposób maszyny oparte o SI przeprowadzają pewne procesy.

Coś Wam to przypomina? Motyw sztucznej inteligencji występującej przeciwko rodzajowi ludzkiemu to chyba jeden z najpopularniejszych pomysłów występujących w literaturze czy kinematografii z nurtu science fiction. Na czym bowiem opierają się takie serie filmowe, jak „Matrix” i „Terminator”, jeśli nie na podobnej koncepcji?

Motyw konfliktu na linii prawdziwa – sztuczna inteligencja jest tak pasjonujący, bo jakież mogłaby mieć problemy ludzkość w przyszłości, jeśli nie właśnie takie – wywołane przez nas samych i sprowadzające się do tego, że nasza cywilizacja sama zapędziła się w kozi róg. Czy tam roboci.

Do momentu, w którym sztuczna inteligencja otrzyma wielki i tajemniczy dar – samoświadomości – jeszcze baaardzo długa droga. Naukowcy doszli w tej sprawie do konsensusu – albo się to wydarzy, albo nie, szanse są wyrównane (przepraszam, zbyt sucho). Nie możemy jednak wykluczyć, że kiedyś do tego w końcu dojdzie.

I znowu dochodzimy w takich rozważaniach do momentu, w którym przed oczyma naszej wyobraźni otwierają się ogromne możliwości związane z rozwijaną technologią, a jednocześnie ogromne obawy, tak czy siak dostajemy się jednak do punktu, w którym pobudzona zostaje nasza fascynacja. No a przynajmniej moja.

Gdyby androidy z SI mogły głosować, to zawsze wygrywali by technokraci [ba dum tss i cykanie świerszcza] (fot. cottonbro, Pexels).

Czy androidy śnią o wyborach samorządowych?

Jest to bowiem naprawdę ciekawy problem organizacyjny, obyczajowy, etyczny, moralny… i tak dalej. Załóżmy, że samoświadoma sztuczna inteligencja  to nie będzie robot, który załaduje nam kulkę w łeb, bo będziemy dla niego obrzydliwym białkowcem, tylko naprawdę dotrzemy do momentu, w którym naprzeciwko człowieka stanie android równie świadomy i inteligentny co on, a może i nawet inteligentniejszy.

Co wtedy powinniśmy zrobić? Czy taki android powinien mieć pełnię praw obywatelskich jako obdarzona elektronicznym rozumem istota, do tego – załóżmy – zdolna do odczuwania uczuć dokładnie w taki sam sposób jak my? Czy powinien brać udział we wszystkich czynnościach społecznych, czy mógłby np. zagłosować w wyborach w kraju, w którym przyszło mu żyć?

Czy związek naturalnie zrodzonego człowieka z obdarzonym ludzką inteligencją robotem byłby czymś powszechnym, zakazanym, a może faktycznie istniejącym, ale stanowiącym swoiste tabu? Czy SI widząc, jak wiele uwagi przykładamy do zakładania rodzin i posiadania dzieci samo zechciałoby skonstruować własne potomstwo, które mogłoby odziedziczyć po nim wszystkie śrubki etc.?

Dziś to wszystko jest niczym więcej niż zabawą myślową. Doświadczenie uczy nas jednak, że wszystkie rozważania pisarzy science fiction i niejasne założenia naukowców w końcu przeradzają się w coś rzeczywistego, choć może – ostatecznie – pod nieco zmienioną postacią.

Może faktycznie już dziś warto zastanowić się nad ramami prawnymi dotyczącymi sztucznej inteligencji i kierunkami jej rozwoju. Może faktycznie przyda się – wspominany przez naukowców – „algorytm hamujący”, który zapobiegnie niepożądanym operacjom wykonywanym przez maszyny.

Czasem mówi się o „złośliwości rzeczy martwych”. Oby nie czekała nas „złośliwość rzeczy żywych” – choć „rzeczy” to jak dla mnie bardzo wątpliwe w tym kontekście słowo.

Polska grupa Smart Home by SmartMe

Polska grupa Xiaomi by SmartMe

Promocje SmartMe

Powiązane posty

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *