L'Armonizzazione dell'Intelligenza Artificiale



<div _ngcontent-c14 = "" innerhtml = "

La realtà della nascita di sistemi di armi autonomiDepositphotos migliorato da CogWorld

introduzione

Lo sviluppo tecnologico è diventato una corsa sfrenata. Nella competizione per guidare la corsa tecnologica emergente e il futuristico campo di battaglia, l'intelligenza artificiale (AI) sta rapidamente diventando il centro del gioco di potere globale. Come visto in molte nazioni, lo sviluppo del sistema di armi autonome (AWS) sta progredendo rapidamente, e questo aumento dell'armamento dell'intelligenza artificiale sembra essere diventato uno sviluppo altamente destabilizzante. Porta sfide complesse alla sicurezza non solo per i responsabili delle decisioni di ogni nazione, ma anche per il futuro dell'umanità.

La realtà odierna è che l'intelligenza artificiale ci sta conducendo verso un nuovo campo di battaglia algoritmico di guerra che non ha confini o confini, può o non può avere coinvolti umani e sarà impossibile da comprendere e forse controllare attraverso l'ecosistema umano nel cyberspazio, nello spazio geospaziale e nello spazio (CGS). Di conseguenza, l'idea stessa dell'armamentizzazione dell'intelligenza artificiale, in cui un sistema d'arma che, una volta attivato attraverso il CGS, può selezionare e coinvolgere obiettivi umani e non umani senza ulteriori interventi da parte di un progettista o operatore umano, è causando una grande paura.

Il pensiero di qualsiasi macchina intelligente o intelligenza artificiale per avere la capacità di svolgere qualsiasi compito di guerra proiettata senza alcun intervento umano e intervento – usando solo l'interazione dei suoi sensori incorporati, programmazione e algoritmi nell'ambiente umano e nell'ecosistema – è diventare una realtà che non può più essere ignorato.

Armonizzazione dell'intelligenza artificiale

Quando l'intelligenza artificiale, l'apprendimento automatico e l'apprendimento approfondito evolvono ulteriormente e passano dall'ideazione alla commercializzazione, la rapida accelerazione nella potenza di calcolo, nella memoria, nei big data e nella comunicazione ad alta velocità non sta solo creando innovazione, investimento e frenesia di applicazione, ma sta anche intensificando la ricerca per chip AI. Questo continuo rapido progresso e sviluppo significa che l'intelligenza artificiale sta per rivoluzionare la guerra e che le nazioni continueranno senza dubbio a sviluppare il sistema di armi automatiche che l'IA renderà possibile.

Quando le nazioni accellerano individualmente e collettivamente i loro sforzi per ottenere un vantaggio competitivo nella scienza e nella tecnologia, l'ulteriore armamentario dell'IA è inevitabile. Di conseguenza, è necessario visualizzare quale sarebbe l'aspetto di una guerra algoritmica del domani, perché costruire sistemi di armi autonomi è una cosa, ma usarli in una guerra algoritmica con altre nazioni e contro altri umani è un altro.

Come sono i rapporti già emergenti di complessi sistemi algoritmici che supportano sempre più aspetti del combattimento bellico attraverso il CGS, la verità è che la mercificazione dell'intelligenza artificiale ora è una realtà. Come visto nel cyberspazio, la guerra automatizzata (cyberwarfare) ha già iniziato – dove chiunque e tutti sono un bersaglio. Quindi, cosa c'è dopo, la geo-guerra e la guerra spaziale? E chi e quale sarà l'obiettivo?

Il rapido sviluppo dell'armaizzazione dell'IA è evidente a tutti i livelli: navigando e utilizzando navale senza equipaggio, aereo, & nbsp; veicoli fuoristrada, producendo stime del danno collaterale, distribuire sistemi missilistici "fire-and-forget" e utilizzando sistemi fissi per automatizzare tutto, dai sistemi del personale e la manutenzione delle attrezzature fino all'implementazione di droni di sorveglianza, robot e molti altri sono tutti esempi. Quindi, quando gli algoritmi supportano sempre più aspetti della guerra, ci porta a una domanda importante: quali usi dell'IA nella guerra di oggi e di domani dovrebbero essere consentiti, ristretti e apertamente vietati?

Mentre si ritiene che i Sistemi di Armi Autonomi offrano opportunità per ridurre i costi operativi del sistema di armi – in particolare attraverso un uso più efficiente della manodopera – e probabilmente consentiranno ai sistemi di armi di ottenere maggiore velocità, precisione, persistenza, precisione, portata e coordinamento il campo di battaglia del CGS, rimane la necessità di comprendere e valutare le questioni tecnologiche, legali, economiche, sociali e di sicurezza.

Ruolo dei programmatori e della programmazione

Tra queste complesse sfide alla sicurezza e il mare di incognite che stanno arrivando, ciò che rimane fondamentale per la sicurezza e la sicurezza della razza umana è il ruolo dei programmatori e della programmazione insieme all'integrità dei chip dei semiconduttori. La ragione di ciò è che i programmatori possono definire e determinare la natura di AWS (almeno all'inizio) finché l'IA non inizia a programmare se stessa.

Tuttavia, se e quando un programmatore che intenzionalmente o involontariamente programma un'arma autonoma per operare in violazione della attuale e futura legge internazionale umanitaria (IHL), come controllerà l'armaizzazione dell'intelligenza artificiale? Inoltre, poiché AWS è incentrato sul software, dov'è la responsabilità per gli errori e la manipolazione della progettazione e dell'uso dei sistemi AWS? Questo ci porta al centro della domanda: quando e se un sistema autonomo uccide, chi è responsabile dell'omicidio, indipendentemente dal fatto che sia giustificato o no?

Sfide di sicurezza informatica

In breve, gli algoritmi non sono affatto sicuri, né sono immuni da errori, malware, pregiudizi e manipolazioni. E, poiché l'apprendimento automatico utilizza macchine per addestrare altre macchine, cosa succede se c'è malware o manipolazione dei dati di addestramento? Mentre i rischi per la sicurezza sono ovunque, i dispositivi connessi aumentano la capacità di violazione della cibersicurezza da postazioni remote e poiché il codice è opaco, la sicurezza è molto complessa. Quindi, quando l'intelligenza artificiale va in guerra con altre IA (a prescindere se ciò sia per la sicurezza informatica, la sicurezza geografica o la sicurezza spaziale), le continue sfide alla sicurezza informatica aggiungeranno rischi monumentali al futuro dell'umanità e dell'ecosistema umano in CGS.

Mentre sembra che i sistemi di armi autonome siano qui per rimanere, la domanda a cui tutti noi, individualmente e collettivamente, dovremo rispondere è la guida dell'intelligenza artificiale e determinare la nostra strategia per la sopravvivenza e la sicurezza umane, o lo faremo?

Riconoscendo questa realtà emergente, Risk Group ha avviato l'indispensabile discussione sui sistemi di armi autonome con Markus Wagner, un autore pubblicato e professore associato di diritto presso l'Università di Wollongong con sede in Australia.

Divulgazione: Risk Group LLC è la mia azienda

Il gruppo di rischio discute sistema e legge di armi autonome con Markus Wagner, un autore pubblicato e professore associato di giurisprudenza presso l'Università di Wollongong, con sede in Australia, su Risk Roundup.

Qual'è il prossimo?

Mentre le nazioni accelerano individualmente e collettivamente i loro sforzi per ottenere un vantaggio competitivo nella scienza e nella tecnologia, un'ulteriore armamento dell'IA è inevitabile. Di conseguenza, il posizionamento di AWS altererebbe il significato stesso di essere umano e in nessun modo incerto cambierà i fondamenti della sicurezza e il futuro dell'umanità e della pace.

È importante capire e valutare se la corsa agli armamenti autonoma non può essere prevenuta, cosa potrebbe andare storto. È giunto il momento di riconoscere il fatto che, semplicemente perché la tecnologia può consentire lo sviluppo di successo di AWS, ciò non significa che dovremmo. Forse non è nell'interesse dell'umanità armare l'intelligenza artificiale! È tempo di fare una pausa.

">

La realtà della nascita di sistemi di armi autonomiDepositphotos migliorato da CogWorld

introduzione

Lo sviluppo tecnologico è diventato una corsa sfrenata. Nella competizione per guidare la corsa tecnologica emergente e il futuristico campo di battaglia, l'intelligenza artificiale (AI) sta rapidamente diventando il centro del gioco di potere globale. Come visto in molte nazioni, lo sviluppo del sistema di armi autonome (AWS) sta progredendo rapidamente, e questo aumento dell'armamento dell'intelligenza artificiale sembra essere diventato uno sviluppo altamente destabilizzante. Porta sfide complesse alla sicurezza non solo per i responsabili delle decisioni di ogni nazione, ma anche per il futuro dell'umanità.

La realtà odierna è che l'intelligenza artificiale ci sta conducendo verso un nuovo campo di battaglia algoritmico di guerra che non ha confini o confini, può o non può avere coinvolti umani e sarà impossibile da comprendere e forse controllare attraverso l'ecosistema umano nel cyberspazio, nello spazio geospaziale e nello spazio (CGS). Di conseguenza, l'idea stessa dell'armamentizzazione dell'intelligenza artificiale, in cui un sistema d'arma che, una volta attivato attraverso il CGS, può selezionare e coinvolgere obiettivi umani e non umani senza ulteriori interventi da parte di un progettista o operatore umano, è causando una grande paura.

Il pensiero di qualsiasi macchina intelligente o intelligenza artificiale per avere la capacità di svolgere qualsiasi compito di guerra proiettata senza alcun intervento umano e intervento – usando solo l'interazione dei suoi sensori incorporati, programmazione e algoritmi nell'ambiente umano e nell'ecosistema – è diventare una realtà che non può più essere ignorato.

Armonizzazione dell'intelligenza artificiale

Quando l'intelligenza artificiale, l'apprendimento automatico e l'apprendimento approfondito evolvono ulteriormente e passano dall'ideazione alla commercializzazione, la rapida accelerazione nella potenza di calcolo, nella memoria, nei big data e nella comunicazione ad alta velocità non sta solo creando innovazione, investimento e frenesia di applicazione, ma sta anche intensificando la ricerca per chip AI. Questo continuo rapido progresso e sviluppo significa che l'intelligenza artificiale sta per rivoluzionare la guerra e che le nazioni continueranno senza dubbio a sviluppare il sistema di armi automatiche che l'IA renderà possibile.

Quando le nazioni accellerano individualmente e collettivamente i loro sforzi per ottenere un vantaggio competitivo nella scienza e nella tecnologia, l'ulteriore armamentario dell'IA è inevitabile. Di conseguenza, è necessario visualizzare quale sarebbe l'aspetto di una guerra algoritmica del domani, perché costruire sistemi di armi autonomi è una cosa, ma usarli in una guerra algoritmica con altre nazioni e contro altri umani è un altro.

Come sono i rapporti già emergenti di complessi sistemi algoritmici che supportano sempre più aspetti del combattimento bellico attraverso il CGS, la verità è che la mercificazione dell'intelligenza artificiale ora è una realtà. Come visto nel cyberspazio, la guerra automatizzata (cyberwarfare) ha già iniziato – dove chiunque e tutti sono un bersaglio. Quindi, cosa c'è dopo, la geo-guerra e la guerra spaziale? E chi e quale sarà l'obiettivo?

Il rapido sviluppo dell'armaizzazione dell'IA è evidente a tutti i livelli: navigando e utilizzando navale senza equipaggio, aerei e veicoli terrestri, producendo stime di danni collaterali, distribuire sistemi missilistici "fire-and-forget" e utilizzando sistemi fissi per automatizzare tutto, dai sistemi del personale e la manutenzione delle attrezzature fino all'implementazione di droni di sorveglianza, robot e molti altri sono tutti esempi. Quindi, quando gli algoritmi supportano sempre più aspetti della guerra, ci porta a una domanda importante: quali usi dell'IA nella guerra di oggi e di domani dovrebbero essere consentiti, ristretti e apertamente vietati?

Mentre si ritiene che i Sistemi di Armi Autonomi offrano opportunità per ridurre i costi operativi del sistema di armi – in particolare attraverso un uso più efficiente della manodopera – e probabilmente consentiranno ai sistemi di armi di ottenere maggiore velocità, precisione, persistenza, precisione, portata e coordinamento il campo di battaglia del CGS, rimane la necessità di comprendere e valutare le questioni tecnologiche, legali, economiche, sociali e di sicurezza.

Ruolo dei programmatori e della programmazione

Tra queste complesse sfide alla sicurezza e il mare di incognite che stanno arrivando, ciò che rimane fondamentale per la sicurezza e la sicurezza della razza umana è il ruolo dei programmatori e della programmazione insieme all'integrità dei chip dei semiconduttori. La ragione di ciò è che i programmatori possono definire e determinare la natura di AWS (almeno all'inizio) finché l'IA non inizia a programmare se stessa.

Tuttavia, se e quando un programmatore che intenzionalmente o involontariamente programma un'arma autonoma per operare in violazione della attuale e futura legge internazionale umanitaria (IHL), come controllerà l'armaizzazione dell'intelligenza artificiale? Inoltre, poiché AWS è incentrato sul software, dov'è la responsabilità per gli errori e la manipolazione della progettazione e dell'uso dei sistemi AWS? Questo ci porta al centro della domanda: quando e se un sistema autonomo uccide, chi è responsabile dell'omicidio, indipendentemente dal fatto che sia giustificato o no?

Sfide di sicurezza informatica

In breve, gli algoritmi non sono affatto sicuri, né sono immuni da bug, malware, pregiudizi e manipolazioni. E, poiché l'apprendimento automatico utilizza macchine per addestrare altre macchine, cosa succede se c'è malware o manipolazione dei dati di addestramento? Mentre i rischi per la sicurezza sono ovunque, i dispositivi connessi aumentano la capacità di violazione della cibersicurezza da postazioni remote e poiché il codice è opaco, la sicurezza è molto complessa. Quindi, quando l'intelligenza artificiale va in guerra con altre IA (a prescindere se ciò sia per la sicurezza informatica, la sicurezza geografica o la sicurezza spaziale), le continue sfide alla sicurezza informatica aggiungeranno rischi monumentali al futuro dell'umanità e dell'ecosistema umano in CGS.

Mentre sembra che i sistemi di armi autonome siano qui per rimanere, la domanda a cui tutti noi, individualmente e collettivamente, dovremo rispondere è la guida dell'intelligenza artificiale e determinare la nostra strategia per la sopravvivenza e la sicurezza umane, o lo faremo?

Riconoscendo questa realtà emergente, Risk Group ha avviato l'indispensabile discussione sui sistemi di armi autonome con Markus Wagner, un autore pubblicato e professore associato di diritto presso l'Università di Wollongong con sede in Australia.

Divulgazione: Risk Group LLC è la mia azienda

Il gruppo di rischio discute sistema e legge di armi autonome con Markus Wagner, un autore pubblicato e professore associato di giurisprudenza presso l'Università di Wollongong, con sede in Australia, su Risk Roundup.

Qual'è il prossimo?

Mentre le nazioni accelerano individualmente e collettivamente i loro sforzi per ottenere un vantaggio competitivo nella scienza e nella tecnologia, un'ulteriore armamento dell'IA è inevitabile. Di conseguenza, il posizionamento di AWS altererebbe il significato stesso di essere umano e cambierà in termini incerti i fondamenti della sicurezza e il futuro dell'umanità e della pace.

È importante capire e valutare se la corsa agli armamenti autonoma non può essere prevenuta, cosa potrebbe andare storto. È giunto il momento di riconoscere il fatto che, semplicemente perché la tecnologia può consentire lo sviluppo di successo di AWS, ciò non significa che dovremmo. Forse non è nell'interesse dell'umanità armare l'intelligenza artificiale! È tempo di fare una pausa.