killer robot

Dal “non uccidere” al robot assassino.

Philip K. Dick e la profezia realizzata

Il primo comandamento della convivenza umana, quello che precede ogni legge, è un imperativo semplice e assoluto: non uccidere. È la formula originaria del limite, la soglia che separa la civiltà dalla barbarie.


Il primo comandamento della convivenza umana, quello che precede ogni legge, è un imperativo semplice e assoluto: non uccidere. È la formula originaria del limite, la soglia che separa la civiltà dalla barbarie. Tutta la nostra storia si è costruita sul riconoscimento di questo confine: la vita è un bene indisponibile, non esiste ragione che ne legittimi la soppressione. Poi, secolo dopo secolo, abbiamo cominciato a piegare quel principio. Abbiamo giustificato l’uccisione in nome della difesa, della patria, della sicurezza. Abbiamo costruito linguaggi per renderla accettabile, trasformandola in “neutralizzazione”, “danno collaterale”, “target eliminato”. Il comando morale si è dissolto in un lessico tecnico. Così, passo dopo passo, siamo arrivati al punto estremo di questa degradazione: la delega della morte a una macchina. Non è un incubo letterario: è cronaca. Nel 2020 il drone turco Kargu 2 avrebbe attaccato autonomamente combattenti in ritirata in Libia. Nelle guerre più recenti, sistemi come Lavender e The Gospel sono stati impiegati per individuare e classificare esseri umani come obiettivi, lasciando agli operatori pochi secondi per confermare l’attacco. È la fine del giudizio: la coscienza ridotta a formalità.
Dietro la parola “intelligenza artificiale” si può  nascondere la forma più subdola della deresponsabilizzazione.
Non si uccide più per odio o per errore, ma per automatismo. È la guerra senza passione, la morte senza colpa. Human Rights Watch parla di “vuoto di responsabilità”; la Croce Rossa internazionale avverte che le armi autonome “riducono o eliminano l’intervento umano nella decisione di uccidere, ferire o distruggere”.
La campagna mondiale Stop Killer Robots chiede da anni un trattato che vieti le armi completamente autonome. Ma la politica rimanda, le potenze si oppongono, la tecnica avanza. La tecnologia corre, la coscienza dorme. 
Se Philip K. Dick fosse vivo, non si stupirebbe. Nei suoi racconti e romanzi, scritti più di mezzo secolo fa, la domanda ossessiva è sempre la stessa: che cosa resta dell’uomo quando la macchina impara a imitarlo? La sua fantascienza non parla di astronavi, ma di coscienza. Non immagina invasioni, ma smarrimenti interiori. In The Second Variety (1953) le macchine costruite per combattere autonomamente si evolvono, sfuggono al controllo, imitano perfettamente l’essere umano. Alla fine nessuno sa più distinguere chi è vivo e chi è programmato. È il futuro che oggi si compie nei teatri di guerra: la decisione di colpire è ancora formalmente “umana”, ma di fatto è già algoritmica. Dick non diffidava della tecnologia: diffidava dell’uomo che smette di interrogarsi. Per lui, la perdita più grande non è la libertà, ma l’empatia — la capacità di riconoscere l’altro come simile. Quando l’atto di uccidere è delegato a un codice, l’empatia diventa un errore di sistema, un’interferenza da eliminare. È il punto in cui la distopia dickiana si sovrappone alla nostra realtà: la macchina che agisce con efficienza, e l’uomo che osserva, estraneo, senza più sentire. Nel mondo immaginato da Dick, i robot non sono il vero pericolo. Lo è l’uomo che rinuncia alla propria umanità, che accetta di vivere in un universo senza distinzione fra realtà e simulacro. Le sue visioni non volevano predire il futuro: volevano misurare la distanza tra il potere e la coscienza, tra l’efficienza e la pietà. E oggi quella distanza coincide con la nostra epoca.
Il filosofo Günther Anders la chiamava dislivello prometeico: la sproporzione tra ciò che possiamo fare e ciò che possiamo sentire. L’intelligenza artificiale applicata alla guerra porta questa sproporzione al parossismo. Le macchine non conoscono esitazione né rimorso, non distinguono un soldato da un bambino se i loro movimenti coincidono. Calcolano traiettorie, non destini. Ma la loro freddezza non è il problema. Lo è la nostra complicità. È l’uomo, non l’algoritmo, a decidere di rinunciare al giudizio. Il vero mostro non è la macchina che colpisce, ma la coscienza che tace.
“Non uccidere” diceva il comandamento. Poi è diventato “uccidere, se necessario”. Oggi rischia di diventare “uccidere, senza pensarci”. In questa progressione si consuma la crisi più profonda dell’umanità contemporanea: la sostituzione del discernimento morale con la funzione tecnica. Quando la vita e la morte diventano parametri di un software, l’etica si trasforma in errore di programmazione. L’uomo abdica alla propria responsabilità e si rifugia dietro la neutralità della macchina. È l’ultima forma di codardia morale: delegare l’irreparabile a chi non conosce la colpa. Il dibattito internazionale parla di “controllo umano significativo”, ma la questione non è giuridica. È spirituale. Si tratta di restituire alla coscienza la libertà di dire no, di dubitare, di fermare la mano. Una civiltà che non sa più fermarsi davanti alla vita dell’altro è una civiltà in rovina.
La tecnologia, lasciata senza etica, non è progresso ma abisso. Possiamo costruire città intelligenti e reti perfette, ma se permettiamo a una macchina di decidere chi deve morire, ogni conquista si trasforma in regressione. Il segno della civiltà non è ciò che l’uomo sa fare, ma ciò che sa non fare. Philip Dick l’aveva capito prima di tutti: il pericolo non è che le macchine diventino umane, ma che gli uomini diventino macchine. Finché qualcuno potrà ancora dire “no” prima che la macchina colpisca, ci sarà speranza. Quando anche quel “no” sarà programmato, la storia finirà in un silenzio perfetto: quello dei circuiti che uccidono.


Fonti
[1]    Stop Killer Robots: una considerazione sulla coscienza nell’epoca dell’intelligenza artificiale, La Fionda, 18 gennaio 2025.
[2]    Mind the Gap: The Lack of Accountability for Killer Robots, Human Rights Watch, 2015.
[3]    Autonomous Weapons and Human Control, ICRC, 2023.
[4]    Stop Killer Robots Campaign Reports, 2024-2025, stopkillerrobots.org.
[5]    UN Meetings on Lethal Autonomous Weapons Systems, UNODA, 2024.

Pasquale e Carlo Palumbo

 

foto articolo di JuliusH su pixabay

Articoli Correlati