Zagrożenia AI: niezamierzone skutki innowacji
Zagrożenia AI – są takie, czy niekoniecznie? W poprzednich wpisach z tej serii, opartej na książce Suleymana Mustafy „Nadchodząca fala” przyjrzeliśmy się początkom sztucznej inteligencji i przyspieszeniu postępu technologicznego. Dziś zagłębimy się w kluczowy problem, który pojawia się wraz z każdą potężną innowacją. Jest to problem powstrzymania negatywnych skutków. Autorzy książki stawiają niewygodne pytanie: czy naprawdę potrafimy kontrolować technologie, które tworzymy? Ma to ogromne znaczenie w kontekście rozwoju AI, ponieważ związane z nią zagrożenia stają się coraz bardziej realne dla przedsiębiorstw i zwykłych ludzi.
Autorzy książki argumentują, że gdy innowatorzy wypuszczają swoje wynalazki w świat, bardzo szybko tracą nad nimi kontrolę. Dlatego ich technologie zaczynają żyć własnym życiem i funkcjonować w złożonym systemie. W ten sposób konsekwencje ich użycia na kolejnych poziomach (drugiego, trzeciego rzędu i dalszych) stają się nieprzewidywalne. Historia dostarcza wielu przykładów na potwierdzenie tej tezy:
- Alan Turing czy Gordon Moore nie mogli przewidzieć powstania mediów społecznościowych, memów czy cyberataków, mimo że ich prace stworzyły podwaliny pod dzisiejszą cyfrową rzeczywistość.
- Twórcy bomby atomowej nie byli w stanie powstrzymać widma wojny nuklearnej.
- Henry Ford, dążąc do zmotoryzowania świata, nie mógł zapobiec wypadkom samochodowym.
- Thomas Edison wynalazł fonograf do celów, które dziś wydają się niszowe (uwiecznianie myśli, pomoc niewidomym). Większość ludzi użyła go do słuchania muzyki.
- Alfred Nobel wierzył, że dynamit będzie służył wyłącznie celom pokojowym w górnictwie i budownictwie.
- Prasa drukarska Gutenberga miała służyć głównie do druku Biblii, a stała się katalizatorem rewolucji naukowej i reformacji, co zagrażało ówczesnej władzy Kościoła
- Producenci lodówek nie przewidzieli, że freony przyczynią się do powstania dziury ozonowej.
- Twórcy silników spalinowych nie zamierzali wywołać globalnego ocieplenia i topnienia lodowców.
Każda technologia może zawieść lub zostać użyta w sposób sprzeczny z pierwotną intencją. Leki opioidowe miały uśmierzać ból, a doprowadziły do kryzysu uzależnień. Antybiotyki miały leczyć, a ich nadużywanie osłabiło ich skuteczność. Rozpowszechnianie satelitów generuje kosmiczne śmieci zagrażające przyszłym lotom.
W miarę jak technologia upowszechnia się, coraz więcej osób i podmiotów może z niej korzystać, dostosowywać ją i przekształcać. To generuje nieprzewidywalne ciągi przyczynowo-skutkowe. Wraz ze wzrostem możliwości narzędzi i łatwością dostępu do nich, rośnie także skala potencjalnych szkód . To jest właśnie sedno problemu powstrzymywania. Jeśli nie można wyeliminować zagrożeń AI i innych potężnych technologii, to trzeba je spróbować ograniczyć.
Zagrożenia AI: czym jest powstrzymywanie technologii w kontekście AI
Powstrzymywanie (containment) to, według autorów, zdolność do kontrolowania, ograniczania, a nawet likwidowania technologii na dowolnym etapie jej rozwoju i upowszechniania . Czasami oznacza to celowe blokowanie jej ekspansji – nawet jeśli technologia wydaje się z pozoru „dobra” – aby zapobiec niepożądanym, trudnym do cofnięcia konsekwencjom .
Im potężniejsza staje się technologia, tym głębiej zakorzenia się w naszym życiu i tym pilniejsza staje się potrzeba jej powstrzymywania . Autorzy podkreślają, że twórcy technologii ponoszą odpowiedzialność za stawienie czoła tym wyzwaniom . Chociaż nie mają pełnej kontroli nad ostatecznymi zastosowaniami swoich wynalazków, próby przewidywania konsekwencji i wprowadzenie mechanizmów kontroli są kluczowe.
Powstrzymywanie to przemyślana kontrola. Możliwość zatrzymania procesu, zmiany kierunku badań, a także uniemożliwienie dostępu do technologii podmiotom, które mogłyby jej użyć we wrogich celach. Celem jest utrzymanie kontroli nad technologią. Jej wpływ powinien być zgodny z wartościami ludzkości i nie powodować szkód przewyższających korzyści. To fundamentalny program dążący do równowagi sił między ludźmi a ich narzędziami – warunek przetrwania gatunku.
Zagrożenia AI: historyczne próby powstrzymywania technologii
Historia zna wiele prób zatrzymania postępu technologicznego lub ograniczenia jego rozprzestrzeniania. Raport Capgemini, o którym mówiliśmy ostatnio, pokazuje, że także w kontekście GenAI, kontrola i transparentność wciąż kuleją. Książka Suleymana Mustafy podaje jeszcze bardziej fundamentalne przykłady:
- Imperium Osmańskie przez prawie 300 lat opóźniało wprowadzenie prasy drukarskiej do druku pism arabskich. Wynikało to z różnych przyczyn, w tym kosztów i złożoności . Ostatecznie jednak technologia zadomowiła się, pokazując, że państwa mogą mówić „nie” tylko do pewnego momentu.
- Ruch luddystów w Anglii brutalnie opierał się technikom przemysłowym, niszcząc maszyny . Podobne opory dotyczyły kuszy w średniowieczu, nowych maszyn dziewiarskich czy krosien . Ludzie obawiali się utraty pracy i zmiany trybu życia.
- Japonia i Chiny przez stulecia odcinały się od zachodnich technologii, ufając we własną samowystarczalność.
Wszystkie te próby zakończyły się ostatecznie niepowodzeniem. Autorzy konkludują, że tam, gdzie istnieje popyt, technologia zawsze utoruje sobie drogę. Raz wywołanych „fal” technologicznych w zasadzie nie da się zatrzymać. Próby oporu z czasem słabną. Nowe technologie wypierają stare. Często oferują więcej za mniejszą cenę, a ich atrakcyjność rośnie wraz z upowszechnianiem się. Historia uczy, że społeczeństwa, które skutecznie odcinały się od postępu, przeważnie popadały w stagnację lub upadały. Wynalazków nie sposób tłumić w zarodku.
Wyjątek nuklearny – czy to lekcja w obliczu zagrożeń AI
Na tle tej historii nieskutecznych prób powstrzymywania, autorzy wskazują na jeden znaczący wyjątek. Jest to broń nuklearna. Wbrew logice rozprzestrzeniania się technologii, broń jądrowa nie trafiła w ręce niezliczonej liczby państw czy podmiotów niepaństwowych. Została użyta tylko dwukrotnie w historii konfliktów zbrojnych. Co sprawiło, że w tym przypadku powstrzymywanie zadziałało – przynajmniej częściowo?
Przyczyn było kilka:
- Świadoma polityka: podjęto globalny wysiłek na rzecz nierozprzestrzeniania tej broni, co zaowocowało kluczowymi traktatami międzynarodowymi.
- Złożoność i koszt: produkcja broni jądrowej jest niezwykle trudna, kosztowna i wymaga rzadkich surowców.
- Brak powszechnego popytu: nie ma masowego, oddolnego popytu na posiadanie broni jądrowej, co nie wymusza obniżania kosztów i zwiększania dostępności.
- Świadomość niszczycielskiej mocy: perspektywa wzajemnego zniszczenia odegrała kluczową rolę w kształtowaniu polityki powstrzymywania.
Mimo tego „sukcesu”, historia broni nuklearnej to także opowieść o mrożących krew w żyłach incydentach i cudem unikniętych katastrofach. Problem powstrzymywania wciąż nie został w pełni rozwiązany nawet w tym przypadku.
Zagrożenia AI w perspektywie MŚP – jak sobie z nimi radzić?
Wnioski z rozdziału o kwestii powstrzymywania technologii są kluczowe w kontekście „nadchodzącej fali” AI. Sztuczna inteligencja, podobnie jak wcześniejsze potężne technologie, rozwija się w sposób trudny do pełnego kontrolowania. Jej niezamierzone skutki i zagrożenia AI mogą dotknąć każdego, również małe i średnie przedsiębiorstwa.
Chociaż małe i średnie przedsiębiorstwa rzadko same tworzą zaawansowane modele AI, są użytkownikami narzędzi opartych na tej technologii. Są więc narażone na jej potencjalne negatywne skutki. Od kwestii bezpieczeństwa danych, przez ryzyko dezinformacji tworzonej przez AI, po nieprzewidziane zmiany w sposobie działania narzędzi, na których opierają swój biznes online.
Książka Suleymana Mustafy nie daje prostych recept, ale stawia do myślenia. Pokazuje, że bierność i nadzieja, że „jakoś to będzie”, są strategiami skazanymi na porażkę. W obliczu sztucznej, które niosą ze sobą zarówno potencjał, jak i ryzyko, potrzebne jest świadome działanie.
W tym zakresie dla MŚP ważne są przede wszystkim:
- Edukacja: zrozumienie, jak działa AI i jakie potencjalne ryzyka niesie jej używanie.
- Świadomy wybór narzędzi: dokonywanie przemyślanych decyzji o tym, z jakich narzędzi AI korzystać, analizując nie tylko korzyści, ale i potencjalne zagrożenia AI z nimi związane.
- Rozwaga w implementacji: stopniowe wdrażanie AI i monitorowanie jej wpływu na firmę i otoczenie.
- Gotowość na zmiany: świadomość, że technologia będzie się szybko zmieniać, a strategie jej wykorzystania i zarządzania ryzykiem będą wymagały ciągłej adaptacji.