"W pewnym momencie dojdziemy do sytuacji, w której rozpoznanie już nie wystarczy i trzeba będzie podjąć akcje. Kwestia autonomicznych, zabójczych systemów uzbrojenia jest dość prosta - trzeba będzie ich zakazać" - mówi w programie Skaner Defence24 dr Błażej Sajduk, adiunkt w Instytucie Nauk Politycznych i Stosunków Międzynarodowych UJ.
Rozmowa dotyczyła przede wszystkim aktualnego postępu prac w dziedzinie sztucznej inteligencji i potencjalnych możliwości wykorzystania tej technologi do celów militarnych.
Następnym krokiem będzie próba łączenia tych różnych, zautomatyzowanych, węższych czynności w jakieś większe systemy. To jest przyszłość, zanim dojdziemy do sztucznej inteligencji generalnej, szerokiej, która w jakimś sensie odzwierciedla ten sposób w który my myślimy i zbieramy informacje jako ludzie - czyli uczymy się, zbieramy doświadczenia i możemy je kumulować w czasie. Na razie są to relatywnie proste systemy, które są skoncentrowane na wykonywaniu w miarę prostych czynności w zmieniającym się środowisku, ale bardzo wąsko wyspecjalizowane.
Dr Błażej Sajduk zwrócił także uwagę na wyjątkowość sztucznej inteligencji w procesie szacowania możliwości bojowych armii przyszłości. Wynika to z tego, że nie da się ocenić skuteczności AI zanim nie zacznie ona faktycznie działać na realnym polu walki.
Chciałem zwrócić uwagę na wyjątkowość tej technologii. Po pierwsze podwójne zastosowanie - bo cywilne i wojskowe, ale po drugie też realistyczna teza o równowadze sił mówi, że mamy różne państwa, równo rozłożoną potęgę, i możemy policzyć ile kto ma czołgów, ile kto ma głowic. A jak policzyć sztuczną inteligencję?
Dalej liczymy "lufy". Czy za spust pociąga robót czy człowiek nie ma znaczenia.
A jak na etapie uzbrojonego drona lądowego, niemal myślącego coś wymknie się spod kontroli to krew własna może polać się ... a jak będą ich tysiące... ?
Trochę jak z bronią chemiczną
pytaniem jest kto płaci za "autorytet" w celu utrzymania słabości naszego państwa w sytuacji w której rozwój technologi to kwestia czasu a obronność wygląda jak wygląda sensowniej było by uchwalić prawo zakazujące używania AI w zadaniach dozorowych i policyjnych przeciw obywatelom danego państwa i państw sojuszniczych
Tak jak min przeciwpiechotnych? Broni, której dziwnym trafem nie zrzekły się największe i najbardziej agresywne państwa? Polska oczywiście radośnie wyraziła zgodę i może dumnie prężyć pierś w szeregu z takimi krajami jak Burkina Faso i Papua-Nowa Gwinea.
@UE trzeba zmienić.....większych bredni dawno nie czytałem. Sam wymysliles ten stek bzdur? Proponuję najpierw zapoznać się z tym o czym się pisze a dopiero potem krytykować.
Wiara czyni cuda. Bardzo rycerska zacna teoria, ale trudno wymagać od naszego potencjalnego przeciwnika, że wybierze rycerskość zamiast skuteczności. Aż trudno uwierzyć, że tak naiwne teorie głosi ekspert.
Tego zatrzymać się nie da. Zamiast takich iluzorycznych pomysłów, należy zainwestować w roboty pola walki, bo tego wymaga nasze bezpieczeństwo. Przyszłe wojny będą oparte o roboty i technikę z nimi związaną. Gdyby doszło do działań zbrojnych między państwami o dużym rozwoju cywilizacyjnym ,to już byśmy mieli robotyzację pola walki.
Google/sektor prywatny/ ma opatentowanych w USA ok 400 rozwiazan technologicznych z zakresu sztucznej inteligencji.Tymczasem Unia Europejska gwaltowanie odchodzi od tzw Strategii Lizbonskiej ktora zakladala ze gospodarka europejska stanie sie najbardziej konkurencyjna na swiecie.W tej chwili UE stalo sie biurokratycznym molochem walczacym o interesy poszczegolnym grup lobbystycznych reprezentujacych tzw"stara gospodarke" zamiast reprezentowac i realizowac te funkcje ktore sprzyjaja postepowi technicznemu/technologicznemu z korzyscia dla wszystkich mieszkancow UE.Negatywnym przykladem jest np rozprzadzenie RODO/sprzyja przestepcom/ i dyrektywa o totalnej prewencyjnej cenzurze internetu czyli ACTA2.W tej chwili UE jest NAJBARDZIEJ ZBIUROKRATYZOWANA GOSPODARKA SWIATA i coraz trudniej bedzie nam gonic USA,Chiny a nawet Rosje/techniki wojskowe/.
>>I ja mam uwierzyć, że da się zmusić USA, UK, Chiny, Rosję do nie używania >>robotów bojowych? Żarcik. Układ chętnie podpiszą, żeby inni tego nie robili, ale sami będą oszukiwać i oczywiście będą gdzieś w tajnch laboratoriach na Sberii nad tym pracować.
W 1139 zakazano uzywania kusz. Z wiadomym skutkiem.
Fantasta. Kto niby ma zakazać ? Kto to skontroluje ? Postępu nie da się zatrzymać. I oczywiście scenariusza z terminatora też nie. Do wojny dojdzie tak czy inaczej.
Szkodliwe podejscie nie poparte merytorycznymi argumentami. Oczywiste jest ze poczatkowo te rozwiazania będą dostepne tylko dla potęg pozniej zas gdy przejdą takze na Mniejsze kraje mogac zmienic obecny ład podobnie jak zrobila to bron atomowa. Twardogłowość wręcz jak z mroków średniowiecza wspolczesnych kast zawodowych. Powinnismy sami to rozwijać juz teraz.
Tego się już nie powstrzyma , przyszłe pole walki będzie zdominowane przez roboty. Tak jest już od niepamiętnych czasów, że skuteczniejsza broń wypiera gorszą.
Boją się terminatorów?
Zakaz rozwoju oraz użycia autonomicznej AI w działaniach bojowych jest nierealny. Jest oczywiste że Rosja i Chiny się do tego nie zastosują, a jednostronne przestrzeganie takiego zakazu przez Zachód doprowadzi do miażdżącej przewagi militarnej przeciwników i związanej z tym agresji.
I ja mam uwierzyć, że da się zmusić USA, UK, Chiny, Rosję do nie używania robotów bojowych? Żarcik.