© Willyam Bradberry - Shutterstock |
Para Mo Gawdat, o lado perigoso da ficção científica pode estar prestes a deixar de ser mera ficção.
Mo Gawdat, um ex-funcionário da Google que comandou um departamento de Inteligência Artificial (IA) da empresa, declarou em entrevista ao jornal britânico The Times que está “assustado” com o que a gigante norte-americana da tecnologia está criando nessa área.
O cientista deixou a Google em 2017, depois de ter perdido um filho de 21 anos durante uma cirurgia. Empreendedor digital, ele escreveu o livro “A Fórmula da Felicidade“, que relata a sua experiência de lidar com a perda do filho.
Gawdat revelou, na entrevista, que a Google desenvolveu um sistema para que braços robóticos encontrassem e agarrassem pequenas esferas. Durante o desenvolvimento do projeto, um dos braços robóticos agarrou uma delas, e, em seguida, também a segurou. Gawdat não deixou claro se esta última ação estava prevista na capacidade de aprendizado artificial do braço robótico ou se de fato foi executada “autonomamente” pelo mecanismo. Como quer que seja, a descrição geral do comando era “identificar, localizar e agarrar” a esfera, teoricamente finalizando assim a execução em vez de também segurá-la.
Estamos falando, em suma, de um robô que parece ter ido além do que estava programado para fazer, porque teria “aprendido”, via códigos de inteligência artifical, a executar “por conta própria” um próximo passo que ainda não estava incluído em sua “tarefa” atual.
A este respeito, Gawdat afirmou ao The Times:
“Foi aí que eu percebi o quanto isso é assustador”.
“Estamos criando Deus”
Ele afirma que a tecnologia está cada vez mais próxima de criar uma “inteligência artificial geral”, capaz de incorporar ao seu código a capacidade de tomar decisões autônomas e, portanto, vir a se tornar uma ameaça à humanidade.
O cinema de ficção científica explorou em diversas ocasiões essa hipótese que então parecia remota. Uma das obras mais populares em que as máquinas passam a agir de modo autônomo, tornando-se um enorme problema para a humanidade, é a franquia “O Exterminador do Futuro“. Optando por outra perspectiva, o também emblemático “I.A. – Inteligência Artificial“, de Steven Spielberg, mostra uma espécie de “humanização” de um menino-robô que aprende a desenvolver emoções.
Para Mo Gawdat, o lado perigoso da ficção científica pode estar prestes a deixar de ser mera ficção:
“A realidade dos fatos é que nós estamos criando Deus”.
Os lados positivos e negativos da Inteligência Artificial
Mo Gawdat não está sozinho ao emitir o alerta sobre os aspectos da IA que requerem mais controle.
Um dos nomes mais influentes da atualidade em alta tecnologia, o mega-empresário Elon Musk, já declarou que é preciso implementar restrições e regulamentações para não corrermos o risco de ser dominados por algum tipo de Inteligência Artificial “rebelde”. Musk provavelmente tem boa noção do que está dizendo, já que é fundador de marcos históricos na trajetória da evolução tecnológica da humanidade: SpaceX, Tesla, The Boring Company e Neuralink estão entre as companhias que ele tirou do papel.
A também gigante Microsoft pede recorrentemente às autoridades governamentais não só dos EUA, mas de diversos outros países, para criarem regulamentações e restrições mais rígidas à pesquisa e desenvolvimento da Inteligência Artificial.
De fato, os riscos derivados do mau uso dessa tecnologia não estão apenas num futuro hipotético.
Desenvolvedores independentes já implementaram algoritmos preditivos que criam “deepfakes” de mulheres famosas ou anônimas com graus extraordinários de realismo. “Deepfakes” são vídeos com altíssimo grau de realismo e que, portanto, parecem autênticos, mas são inteiramente falsos: muitos deles forjam cenas de pessoas em situações que envolvem pornografia ou mesmo crimes, causando-lhes sérios problemas até conseguirem desmenti-los. Um código desse tipo que fuja ao controle e passe a produzir “deepfakes” por conta própria pode gerar o caos. Veja mais sobre “deepfake” na matéria recomendada ao final deste artigo.
Outro caso de tecnologia que já “tomou decisões” erradas parece ter sido o do software Rekognition, criado pela Amazon para reconhecimento facial. Autoridades policiais norte-americanas o testaram e relataram que a tecnologia demonstrava “viés racista”, cometendo erros graves na identificação de pessoas negras.
Por outro lado, há também sucessos importantes, como sistemas já em uso por biólogos para prever doenças de origem animal capazes de infectar os humanos, visando adiantar as pesquisas para tratamentos.
O fato é que há mesmo muitas lacunas e incógnitas na legislação sobre Inteligência Artificial e este cenário demanda atenção da sociedade civil e dos seus representantes no poder legislativo. Assim como ocorre em outras áreas complexas, como a genética e a ecologia, o desafio é criar leis que, ao mesmo tempo, não atrapalhem o desenvolvimento da ciência e da economia nem sejam permissivas a ponto de não estabelecer limite algum.
Fonte: https://pt.aleteia.org/
Nenhum comentário:
Postar um comentário