Trader: Como Israel está usando IA militar nos ataques em Gaza?

O nevoeiro da guerra aprofundou-se em Gaza, a ofensiva terrestre ganha força e o bombardeio aéreo continua em ritmo furioso. na terça-feira, Mísseis atingiram um campo de refugiados Em Jabaliya, onde as Forças de Defesa de Israel disseram que um importante líder do Hamas estava estacionado, dezenas de civis foram mortos.

debate sobre crise raiva on-line E, no entanto, ao longo de toda a discussão, há uma questão que não vi ser amplamente considerada: até que ponto Israel depende da inteligência artificial e de sistemas de armas automatizados para seleccionar e atacar alvos?

Sozinho na primeira semana de seu ataque, força aérea israelense Ele disse que lançou 6.000 bombas Do outro lado de Gaza, uma área que cobre 140 milhas quadradas – um décimo do tamanho do menor estado dos EUA, Rhode Island – e é um dos locais mais densamente povoados do mundo. Desde então, ocorreram mais de vários milhares de explosões.

Israel comanda as forças armadas mais poderosas e de alta tecnologia do Oriente Médio. Poucos meses antes dos horríveis ataques do Hamas em 7 de Outubro, as FDI anunciaram que estavam a incorporar a IA em operações letais. Como Bloomberg informou em 15 de julhoNo início deste ano, as IDF “começaram a usar inteligência artificial para selecionar alvos para ataques aéreos e organizar a logística em tempo de guerra”.

Autoridades israelenses disseram na época que as FDI empregaram um sistema de recomendação de IA para selecionar alvos para bombardeio aéreo e que outro modelo seria usado para organizar rapidamente os próximos ataques. A IDF chama este segundo sistema de Fire Factory e, de acordo com a Bloomberg, “usa dados sobre alvos aprovados pelos militares para calcular cargas de munições, priorizar e alocar milhares de alvos para aeronaves e drones, e para propor um programa”.

Em resposta a um pedido de comentário, um porta-voz das FDI recusou-se a discutir o uso militar de IA no país.

Num ano em que a IA esteve nas manchetes em todo o mundo, este elemento do conflito foi surpreendentemente subexaminado. Dadas as inúmeras questões práticas e éticas que rodeiam a tecnologia, Israel deveria ser pressionado sobre a forma como está a implementar a IA.

“Os sistemas de IA são notoriamente pouco confiáveis ​​e frágeis, especialmente quando colocados em condições que diferem dos seus dados de treinamento”, disse o autor Paul Scharre, vice-presidente do Centro para uma Nova Segurança Americana. “Quatro campos de batalha: poder na era da inteligência artificial.” Scharre disse que não estava familiarizado com os detalhes do sistema específico que as FDI poderiam usar, mas disse que a IA e a automação que auxiliam na seleção de alvos poderiam ser potencialmente usadas em cenários como a caça de Israel ao pessoal e material do Hamas em Gaza. O uso da IA ​​no campo de batalha está avançando rapidamente, disse ele, mas também traz riscos significativos.

“Com qualquer IA envolvida em decisões de direcionamento, há um enorme risco de você atacar o alvo errado”, disse Scharre. “Isso poderia causar vítimas civis ou atacar alvos amigos e causar devastação”.

Uma razão pela qual é um pouco surpreendente que não tenhamos visto mais discussões sobre o uso de IA militar por Israel é que a IDF tem vindo a alardear o seu investimento e adopção de IA há anos.

Em 2017, o ramo editorial da IDF anunciou isso “A IDF vê a Inteligência Artificial como a chave para a sobrevivência moderna.” Em 2018, o IDF Alegar Que suas “máquinas estão derrotando os humanos”. Nesse artigo o então chefe da Sigma filial da IDF “Cada câmera, cada tanque e cada soldado produzem informações regularmente, 24 horas por dia, sete dias por semana”, escreveu o tenente-coronel Nurit Cohen Inger, pesquisador dedicado à pesquisa, desenvolvimento e implementação de IA.

Inger acrescentou: “Entendemos que existem capacidades que uma máquina pode alcançar e que um homem não pode”. “Estamos gradualmente incorporando inteligência artificial em todas as áreas das FDI – desde logística e mão de obra até inteligência.”

o idf foi tão longe chame sua última luta Com o Hamas em Gaza, em 2021, a “primeira guerra de inteligência artificial”, a liderança das FDI elogiou os benefícios que a sua tecnologia poderia proporcionar no combate ao Hamas. “Pela primeira vez, a inteligência artificial foi um componente importante e um multiplicador de força no combate ao inimigo”, disse um alto funcionário do Corpo de Inteligência das FDI ao Jerusalem Post. Um comandante da unidade de ciência de dados e IA das FDI disse que os sistemas de IA ajudaram o exército a atingir e eliminar dois líderes do Hamas em 2021. Publicar,

A IDF afirma que os sistemas de IA foram oficialmente incluídos em operações letais desde o início deste ano. Afirma que o sistema permite que os militares processem dados e localizem alvos com mais rapidez e precisão, e cada alvo é revisado por um operador humano.

No entanto, os estudiosos do direito internacional em Israel levantaram preocupações sobre a legalidade da utilização de tais dispositivos, e os analistas preocupam-se com o facto de representarem uma tendência para armas mais totalmente autónomas e alertam que os sistemas de mira existem riscos inerentes à conversão de IA em IA.

Afinal de contas, muitos sistemas de IA estão cada vez mais a tornar-se caixas negras cujos algoritmos são mal compreendidos e protegidos da vista do público. Em Um artigo sobre a adoção da IA ​​pela IDF Para o Instituto Liber, os estudiosos de direito da Universidade Hebraica Tal Mimran e Lior Weinstein enfatizaram os riscos de confiar em sistemas automatizados opacos, o que poderia resultar na perda de vidas humanas. (Quando Mimran serviu nas FDI, ele revisou os alvos para garantir que cumpriam o direito internacional.)

“A menos que as ferramentas de IA sejam explicáveis”, escreveram Mimran e Weinstein, “no sentido de que não podemos compreender completamente por que chegaram a uma determinada conclusão, como podemos justificar para nós mesmos se a vida humana deve ser confiável em uma decisão de IA quando o que está em jogo? … Se um dos ataques realizados por uma ferramenta de IA causar danos significativos a civis não envolvidos, quem deverá assumir a responsabilidade pela decisão?

Mais uma vez, a IDF não me disse em detalhes exatamente como estava usando a IA, e o oficial disse à Bloomberg que um humano revisou o resultado do sistema – mas levou apenas alguns minutos para fazê-lo. (O que costumava levar horas agora leva minutos, disse o chefe de transformação digital do Exército, acrescentando mais alguns minutos para revisão humana.)

Há uma série de preocupações aqui, dado o que sabemos sobre o estado atual dos sistemas de IA, e é por isso que é justo pressionar a IDF para divulgar mais sobre como os está usando.

Por um lado, os sistemas de IA estão rodeados de preconceitosE, embora muitas vezes sejam bons na análise de grandes quantidades de dados, produzem regularmente resultados propensos a erros quando solicitados a fazer extrapolações a partir desses dados.

“Uma diferença realmente fundamental entre uma IA e um analista humano, dada a mesma tarefa, é que os humanos fazem um trabalho muito melhor ao generalizar a partir de um pequeno número de exemplos para situações novas”, disse Scharre. O sistema tem que lutar muito. Generalize para situações novas.”

Um exemplo: mesmo a tecnologia de reconhecimento facial supostamente de ponta usada pelos departamentos de polícia americanos tem demonstrado repetidamente ser menos precisa na identificação de pessoas de cor – resultando no sistema apontando o dedo para civis inocentes e levando a prisões injustas,

Além disso, qualquer sistema de IA que procure automatizar – e acelerar – a seleção de alvos aumenta a probabilidade de que os erros cometidos no processo sejam mais difíceis de detetar. E se os exércitos mantiverem em segredo o funcionamento dos seus sistemas de IA, não haverá forma de avaliar que tipo de erros estão a cometer. “Acho que os militares precisam ser mais transparentes na forma como avaliam ou abordam a IA”, disse Scharre. “Uma das coisas que temos visto nos últimos anos na Líbia ou na Ucrânia é a zona cinzenta. Haverá alegações de que a IA está a ser utilizada, mas os algoritmos ou dados de treino são difíceis de descobrir, o que torna muito difícil avaliar o que os militares estão a fazer.

Mesmo com essas falhas incorporadas no código de eliminação, a IA pode, entretanto, fornecer uma capa de credibilidade aos alvos que, de outra forma, poderiam não ser aceitáveis ​​para os operadores comuns.

Finalmente, os sistemas de IA podem criar uma falsa sensação de confiança – o que talvez tenha sido evidenciado pelo facto de que, apesar de ter o melhor sistema de vigilância reforçado por IA em Gaza, Israel não detectou um plano para um genocídio brutal e altamente coordenado. Em 7 de outubro.

De acordo com a Reuters Peter Epps observou, “Em 27 de setembro, apenas uma semana antes de os combatentes do Hamas lançarem o maior ataque surpresa a Israel desde a Guerra do Yom Kippur de 1973, autoridades israelenses se reuniram com o comitê militar da OTAN para demonstrar o uso de inteligência artificial e de alta potência. fronteira. Acompanhamento técnico. …Desde drones que utilizam software de reconhecimento facial até à espionagem electrónica em postos de controlo fronteiriços e comunicações, a vigilância israelita de Gaza é amplamente considerada um dos esforços mais intensivos e sofisticados de qualquer lugar.

No entanto, nada disto ajudou a deter o Hamas.

“Foi um erro dizer nas últimas duas semanas que se tratava de uma falha de inteligência. Não foi, foi um fracasso político”, disse Antony Lowenstein, jornalista freelancer e autor. “Laboratório Palestina” Com sede em Jerusalém Oriental de 2016 a 2020. “O foco israelita estava na Cisjordânia, acreditando que tinham Gaza cercada. “Eles acreditavam erroneamente que apenas as tecnologias mais sofisticadas teriam sucesso no controle e ocupação da população palestina.”

Esta pode ser uma das razões pelas quais Israel tem sido relutante em discutir os seus programas de IA. Outra poderia ser que um importante argumento de venda da tecnologia durante anos, o facto de a IA ajudar a seleccionar alvos com mais precisão e reduzir as vítimas civis, não parece credível. “As reivindicações da IA ​​têm como alvo as pessoas com mais sucesso”, disse Lowenstein. “Mas não é direcionado com precisão; Um grande número de civis está morrendo lá. Um terço das casas em Gaza foram destruídas. “Esta não é uma segmentação precisa.”

E aqui está o medo – que a IA possa ser usada para acelerar ou permitir o potencial destrutivo de uma nação que treme de raiva, cujos algoritmos podem ter erros potencialmente fatais obscurecidos pela névoa da guerra.

Source link

The post Trader: Como Israel está usando IA militar nos ataques em Gaza? appeared first on Sempre Atualizado.

Source: News

Add a Comment

Your email address will not be published. Required fields are marked *