Kilka dni temu pisaliśmy o tym, że niektórzy Chińczycy obawiają się możliwości wybuchu wojny z powodu nieprzewidywalnych działań dronów. W tym miejscu warto przytoczyć także, za serwisem Breaking Defense, opinie z drugiej strony oceanu. Eksperci ze Stanów Zjednoczonych sądzą bowiem, że sztuczna inteligencja nie stanowi aż tak dużego zagrożenia, gdyż… łatwo ją oszukać.
– Ludzie mówią: „O mój Boże, nadchodzi autonomiczność. Przyjdzie Arnold [Schwarzenegger] i będzie walczył po tej drugiej stronie” – mówi ekspert od SI i były żołnierz marines, Mike Kramer. – Jeśli będziemy walczyć z autonomicznymi środkami rażenia, będzie to walka na ich terenie. Będziemy atakować samą sztuczną inteligencję, a nie platformy, które ją przenoszą.
Amerykanie ukuli nawet pojęcie „sztuczna głupota” (artificial stupidity), wierząc, że automaty mogą popełniać błędy, których nie popełniłby żaden człowiek. Rządzą nimi algorytmy oparte na matematyce i logice. Brakuje im zaś ludzkiej intuicji, instynktu, a czasem wręcz zdrowego rozsądku. Po odnalezieniu ich słabych punktów cała walka może się więc odbyć na płaszczyźnie elektroniki, bez jednego wystrzału.
Jako ilustracja tego problemu podawany jest eksperyment DARPA ze znakiem drogowym „STOP”, na którym przyklejono w kilku newralgicznych miejscach niepozorne kawałki odblaskowej taśmy. Tak drobne zakłócenie, które dla człowieka nie byłoby szczególnym wyzwaniem, sprawiło, że sztuczna inteligencja źle zinterpretowała znak – jako ograniczenie prędkości do czterdziestu pięciu mil na godzinę.
Były zastępca sekretarza obrony Stanów Zjednoczonych, Robert Work, uważa, że Chiny i Rosja wkładają w rozwój swoich sztucznych inteligencji własne skłonności do centralizacji i ograniczania inicjatywy na najniższych szczeblach dowodzenia. To może zaś ułatwić pokonanie sztucznych inteligencji przeciwnika przez Amerykanów, znanych jako naród łatwo przystosowujący się, przedsiębiorczy i kreatywny.
– Autonomiczność może wyglądać na piętę achillesową i w dużym stopniu nią jest. Może być zarówno mocnym, jak i słabym punktem. […] Jesteśmy w stanie być od niej lepsi – mówi Nick Wager z podległej Departamentowi Obrony Defense Threat Reduction Agency. – Możemy pokonać maszynę, którą, wbrew pozorom, pokonać jest łatwiej niż człowieka.
Zobacz też: USMC: Roboty w charakterze ruchomych celów
(breakingdefense.com)