Mais de 1.000 líderes em inteligência artificial (IA) e em robótica, dentre eles o cientista Stephen Hawking, o fundador da Tesla, Elon Musk, e o co-fundador da Apple, Steve Wozniak acabam de assinar e publicar uma carta aberta  pedindo a proibição de armas autônomas ofensivas.

Embora esse assunto pareça alarmista ou saído de ficção científica, a carta faz todo sentido. Ela alerta para o seguinte:

Armas autônomas podem selecionar e disparar em alvos sem a intervenção humana. Essas armas podem incluir os quadricópteros armados que podem eliminar pessoas que preencham critérios pré-definidos. Essas armas não incluem os mísseis de cruzeiro ou drones pilotados por controle remoto em que os seres humanos fazem toda a segmentação de decisões”.

O grupo que assinou a carta acredita que a tecnologia de Inteligência Artificial (IA) chegou a um ponto em que a implantação de tais sistemas pode acontecer dentro de poucos anos, e não de décadas, e o cenário futuro pode ser tenebroso.

É apenas uma questão de tempo para que essas armas apareçam no mercado negro

A carta alerta que se qualquer grande potência militar seguir em frente com o desenvolvimento de armas com Inteligência Artificial, uma corrida armamentista global será praticamente inevitável. O ponto final dessa trajetória tecnológica é óbvia: as armas autônomas se tornarão as Kalashnikovs de amanhã.

Ao contrário das armas nucleares, armas IA podem ser mais fáceis e baratas de produzir, de modo que poderão ser produzidas em massa e tornarem-se onipresentes e acessíveis para todas as forças militares.

Será somente uma questão de tempo até que apareça no mercado negro e nas mãos de terroristas, de ditadores que pretendem controlar melhor o seu povo, de pessoas que pretendem perpetrar limpeza étnica, etc. As armas autônomas são ideais para assassinatos, desestabilizar nações, subjugar populações e matar seletivamente um grupo étnico específico. Portanto, acreditamos que a corrida armamentista militar baseada em Inteligência Artificial, não seria benéfico para a humanidade.”

A proposta da proibição é semelhante aos acordos internacionais amplamente apoiados que têm proibido de forma bem sucedida armas químicas, biológicas, armas a laser que causam cegueira e armas nucleares.

A carta conclui:

Acreditamos que a Inteligência Artificial tem grande potencial para beneficiar a humanidade de várias formas, e o objetivo deve ser esse. Começar uma corrida armamentista militar com IA é uma má ideia, e deve ser impedida com a proibição de armas autônomas ofensivas que estejam fora do controle humano“.

A carta aberta foi apresentada na terça-feira em uma Conferência sobre Inteligência Artificial, em Buenos Aires, Argentina.

A carta na íntegra, em Inglês, pode ser acessada AQUI.

Fonte: Future of Life Institute (FLI)

O Futuro das Coisas

Somos um ecossistema de futuros e inovação que atua para desenvolver pessoas, times e lideranças, por meio de educação e cultura de aprendizagem, conteúdo de impacto e estudos de futuros.

Ver todos os artigos