Inteligência artificial pode ser a ruína da humanidade - Nerdizmo
Nerdizmo

Inteligência artificial pode ser a ruína da humanidade

Problemas relacionados à tecnologia são desconhecidos, mas perigosos

Inteligência artificial pode ser a ruina da humanidade, diz Stephen Hawking

Inteligência artificial pode ser a ruina da humanidade, diz Stephen Hawking

Stephen Hawking, um dos físicos mais brilhantes do mundo, acredita que a inteligência artificial criada pela humanidade é uma grande ameaça. Ela pode ser a última coisa significativa criada pelos humanos, e servir para a ruína da civilização.

Físicos alertam sobre problemas relacionados a Inteligência artificial

O físico em companhia de outros cientistas, como Stuart Russell, Max Tegmark e Frank Wilczek, dizem que os benefícios potenciais desta superinteligência são imensos. Mas não é possível prever o que de mal pode vir quando a tecnologia for mais desenvolvida.

Inteligência artificial pode ser a ruina da humanidade, diz Stephen Hawking

O físico Stephen Hawking

Isso pode levar a desastres como vimos em algumas obras da ficção científica, vide O Exterminador do Futuro e a Skynet, Eu, Robô, Inteligência Artificial, entre muitas outras obras.

Abaixo você confere na íntegra o depoimento do físico, enviado para o jornal The Independent:

Olhando para o futuro, não há limites fundamentais para o que pode ser alcançado: não há nenhuma lei física impedindo partículas de se organizarem de forma que executem cálculos ainda mais avançados do que os arranjos de partículas em cérebros humanos.

 

Uma transição explosiva é possível, apesar de talvez ser um pouco diferente de um filme: como Irving Good percebeu em 1965, máquinas com inteligência sobre-humana podem repetidamente melhorar o próprio design, ativando o que Vernor Vinge chamou de “singularidade” e o personagem do filme de Johnny Depp chama de “transcendência”.

 

Alguém pode pensar que tal tecnologia pode ser mais inteligente que mercados financeiros, superar pesquisadores humanos, ficar além da manipulação de líderes humanos e desenvolver armas que nem conseguimos entender. Considerando que o impacto de curto prazo da AI depende de quem a controla, o impacto a longo prazo depende se ela pode ser de alguma forma controlada.

 

Então, encarando possíveis futuros de benefícios e riscos incalculáveis, os especialistas certamente vão fazer tudo possível para garantir o melhor resultado, certo? Errado. Se uma civilização alienígena superior nos envia uma mensagem “Estamos chegando dentro de algumas décadas”, nós responderíamos apenas “Ok, ligue quando estiverem por aqui – vamos deixar as luzes acesas”? Provavelmente não – mas é mais ou menos isso o que está acontecendo com a inteligência artificial.

 

Apesar de estarmos prestes a encarar o que potencialmente será a melhor ou pior coisa da história da humanidade, pouca pesquisa séria está sendo feita sobre essas questões fora de instituições sem fins lucrativos como o Centro de Estudos de Risco Existencial em Cambridge, o Instituto do Futuro da Humanidade, o Instituto de Pesquisa de Inteligência de Máquina, e o Instituto de Vida Futura. Todos devíamos nos perguntar o que podemos fazer para melhorar as chances de colher os benefícios e evitar os riscos.

** Este texto não reflete, necessariamente, a opinião do Portal UAI.

Subscribe
Notify of
guest
0 Comentários
Inline Feedbacks
View all comments