Em 1983, um homem salvou o mundo
de uma guerra nuclear que poderia ter sido desencadeada pelo erro de uma
máquina.
Andrea
Tornielli
Os sistemas
de armas autônomos nunca poderão ser sujeitos moralmente responsáveis: a
exclusiva capacidade humana de julgamento moral e de decisão ética é mais do
que um conjunto complexo de algoritmos, e tal capacidade não pode ser reduzida
à programação de uma máquina que, por mais «inteligente» que seja, permanece
sempre uma máquina. Por esta razão, é imperioso garantir uma supervisão humana
adequada, significativa e coerente dos sistemas de armas". O Papa
Francisco escreveu isso na Mensagem para o Dia Mundial da Paz
de 2024.
Há um
episódio, ocorrido há quarenta anos, que deveria se tornar um paradigma sempre
que se fala de inteligência artificial aplicada à guerra, às armas, aos
instrumentos de morte. E é a história do oficial soviético cuja decisão,
contrariando o protocolo, salvou o mundo de um conflito nuclear que teria tido
consequências catastróficas. Aquele homem se chamava Stanislav Evgrafovich
Petrov, era um tenente-coronel do exército russo e, em 26 de setembro de 1983,
prestava serviço noturno no bunker "Serpukhov 15", monitorando a
atividade de mísseis dos EUA. A Guerra Fria estava em um ponto de inflexão
crucial, o presidente americano Ronald Reagan estava investindo grandes somas
nos armamentos e acabara de definiar a URSS de "império do mal", a
OTAN estava envolvida nos exercícios militares que recriavam cenários de guerra
nuclear. No Kremlin, Jurij Andropov havia falado recentemente de uma
"escalada sem precedentes" da crise e, em 1º de setembro, os
soviéticos haviam derrubado um avião da Korean Air Lines sobre a península de
Kamchatka, matando 269 pessoas.
Naquela
noite de 26 de setembro, Petrov viu que o elaborador Krokus, o cérebro
considerado infalível em monitorar a atividade inimiga, havia relatado de uma
base em Montana, a partida de um míssil em direção à União Soviética. O
protocolo exigia que o oficial alertasse imediatamente os superiores, que
dariam o sinal verde para uma resposta lançando mísseis em direção aos Estados
Unidos. Mas Petrov esperou, também porque, segundo lhe disseram, qualquer
ataque teria sido maciço. Portanto, ele considerou aquele míssil solitário um
alarme falso. E fez o mesmo com os quatro seguintes que apareceram nos seus
monitores pouco tempo depois, perguntando-se por que não havia confirmação do
radar terrestre. Ele sabia muito bem que os mísseis intercontinentais levavam menos
de meia hora para chegar ao destino, mas decidiu não dar o alarme, deixando os
outros militares presentes petrificados.
Na verdade,
o cérebro eletrônico estava errado; não houve nenhum ataque de míssil. Krokus
havia sido enganado por um fenômeno de refração da luz solar em contato com
nuvens em alta altitude. Em suma, a inteligência humana havia visto além da
máquina. A decisão providencial de não decidir foi tomada por um homem cujo
julgamento foi capaz de enxergar além dos dados e protocolos.
A
catástrofe nuclear foi evitada, embora ninguém soubesse disso na época até o
início da década de 1990. Petrov, que faleceu em setembro de 2017, disse o
seguinte sobre aquela noite no bunker "Serpukhov 15": "o que eu
fiz? Nada de especial, apenas meu trabalho. Eu era o homem certo no lugar certo
e na hora certa". Ele foi o homem capaz de avaliar o possível erro da
máquina considerada infalível, o homem capaz - voltando às palavras do Papa -
"de fazer julgamentos morais e tomar decisões éticas", porque uma máquina,
por mais "inteligente" que seja, continua sendo uma máquina.
A guerra,
repete Francisco, é uma loucura, uma derrota da humanidade. A guerra é uma
grave violação da dignidade humana. Fazer a guerra escondendo-se atrás de
algoritmos, confiando na inteligência artificial para determinar os alvos e
como atingi-los e, assim, limpar a consciência porque, no final, a máquina
escolheu, é ainda mais grave. Não vamos nos esquecer de Stanislav Evgrafovich
Petrov.
Fonte: https://www.vaticannews.va/pt
Nenhum comentário:
Postar um comentário