KI i krig
Kunstig intelligens (KI) blir viktigere og viktigere i moderne krig. De bruker KI i Ukraina, Midtøsten og Iran. KI forandrer krig. Militære operasjoner blir raskere og mer presise, men KI skaper også problemer. Et viktig problem er ansvar. Hvem har ansvaret i krig når KI tar valget?
I Ukraina bruker de droner i krigen mot Russland. Dronene kan fly og jobbe sammen uten at mennesker styrer dem direkte. Dette heter sverm-teknologi. President Zelenskyj sier at droner har drept mange russiske soldater.
Ukraine bruker også roboter i krig. Robotene kan ta fanger og kjempe mot russiske roboter, men de kan ikke skyte selv. De har ikke tillatelse til å gjøre det.
Soldat Oleksandr Afanasiev sier at robotene «kan gå steder der en soldat ikke tør å gå». Dronene er store, omtrent tre meter lange. De kan angripe alene og gjør krigen mer automatisert.
KI i Gaza og Iran
I Gaza bruker Israel et KI-system som heter «Lavender». De bruker det for å finne Hamas-krigere. Systemet samler informasjon fra for eksempel sosiale medier for å finne personer. Professor Elke Schwarz sier at dette kan være den første krigen der KI tar valg i angrep. Hun mener mange mennesker døde i starten av krigen på grunn av KI.
Organisasjonen Oxfam sier at rundt 250 mennesker døde hver dag i starten av Gaza-krigen. Det er mange flere enn før. Schwarz sier at KI gjør krig raskere og større. Systemet kan bli «nesten selvstendig». Soldater får lite tid til å tenke før de handler.
I Iran gjorde USA og Israel en stor militær operasjon. De angrep over 1000 mål på kort tid. Eksperter sier at KI hjalp.
Ansvar i krig
KI i krig gir vanskelige spørsmål. Spørsmål om ansvar. Hvem har skylden hvis noe går galt?
Professor Schwarz sier at det kan bli vanskelig å vite. Hun er redd for at folk vil «gjemme seg bak roboter». De kan prøve å slippe ansvar.
Anthropic er et KI-selskap. De ble saksøkt i 2026. Noen sier systemene deres ble brukt til våpen og overvåkning. Dette viser hvor raskt KI kan gå fra å hjelpe soldater med oversettelse til å bli brukt i angrep. Saken er ikke ferdig ennå.
Feil kan skje. Store feil kan skje. Men ingen tar ansvar.
Eksperter sier at dette er alvorlig. Når KI blir mer selvstendig, blir ansvar vanskelig.
En ny tid for krig og teknologi
Vi bruker KI mer og mer i krig. Mange land bruker mye penger på KI og krig.
I 2025 så vi større investeringer, spesielt i Silicon Valley og i selskaper som Palantir. Dette skjedde etter at KI gjorde det bra i flere kriger.
Professor Schwarz sier at KI i krig vil fortsette. KI er kommet for å bli. Problemet er ikke KI alene. Problemet er hvordan mennesker bruker KI i krig.
Fremtidens krig blir mer automatisk. Den blir raskere. Den kan bli farligere. Derfor er ansvar viktig. Vi må vite: Hvem kontrollerer KI? Hvem har ansvar?
Dette er viktige spørsmål i fremtidens krig.
Opprett en gratis konto for å få tilgang til alle artikler og funksjoner

