A superinteligência artificial catastrófica vem chegando e não podemos esperar e se preparar
- Não vire a Pagina
- 12 de mar. de 2019
- 3 min de leitura
A inteligência artificial em sua forma atual é inofensiva, mas isso não vai durar muito tempo. As máquinas estão ficando mais inteligentes e mais capazes a cada minuto, o que leva a preocupações de que a IA acabará se equiparando e depois excedendo os níveis humanos de inteligência - uma possibilidade conhecida como superinteligência artificial (ASI na sigla em inglês).
Não é exagero dizer que a existência da humanidade está em jogo - por mais difícil que seja ouvir e admitir isso - e dado que não há consenso sobre quando podemos esperar encontrar nossos novos senhores digitais, caberia a nós começarmos a nos preparar agora para essa possibilidade, e não esperar até alguma data arbitrária no futuro.

No horizonte
"Segundo várias estimativas, os supercomputadores podem - ou poderão no futuro próximo - realizar mais operações elementares por segundo do que os cérebros humanos, por isso talvez já tenhamos o hardware necessário para competir com cérebros", disse Jaan Tallinn, programador, membro fundador do Skype, e cofundador do Centre for the Study of Existential Risk (Centro para o Estudo do Risco Existencial), um centro de pesquisa da Universidade de Cambridge preocupado com cenários de extinção humana. “Além disso, muitos esforços de pesquisa estão agora sendo direcionados para a 'meta-aprendizagem' - ou seja, desenvolver IAs que seriam capazes de projetar IAs. Portanto, o progresso da IA pode, em algum momento, simplesmente dissociar-se das velocidades e prazos humanos”.
Além dos níveis humanos de compreensão e controle
Mais controversa, no entanto, é a sugestão que devemos começar a nos preparar para o advento da superinteligência artificial - que anuncia o momento em que as máquinas irão superar os níveis humanos de inteligência em várias ordens de grandeza. O que torna a ASI particularmente perigosa é que ela vai operar além dos níveis humanos de controle e compreensão. Devido ao seu tremendo alcance, velocidade e capacidade computacional, a ASI será capaz de realizar virtualmente qualquer coisa para a qual esteja programada ou decida fazer.

"A evolução e a história não fornecem bons exemplos de uma classe menos poderosa de entidades que retêm o poder indefinidamente sobre uma classe mais poderosa de entidades", disse Russell ao Gizmodo. “Ainda não sabemos como controlar a ASI, porque, tradicionalmente, o controle sobre outras entidades parece exigir a capacidade de pensar melhor do que elas e prevê-las - e, por definição, não podemos pensar melhor do que e prever a ASI. Temos que adotar uma abordagem para projetar sistemas de inteligência artificial que, de alguma forma, evite esse problema básico”.
"Imaginar cenários apocalípticos inspirados na superinteligência artificial (ou ASI) é, na verdade, desnecessário; nós já temos todos os meios para nos destruirmos."
Esteja preparado
Grande risco, segundo Lannquist, é o viés tendencioso nos conjuntos de dados usados para treinar os algoritmos de aprendizado de máquina. Os modelos resultantes não são ajustados para todos, disse, levando a problemas de inclusão, igualdade, justiça e até mesmo o potencial para danos físicos.
Também será importante que os humanos permaneçam dentro do ciclo de compreensão, o que significa que precisamos manter o entendimento do raciocínio de tomada de decisão da IA. Isso já está se mostrando difícil à medida que a IA segue entrando em reinos sobre-humanos. Isso é conhecido como o problema da “caixa preta”, e acontece quando os desenvolvedores não conseguem explicar o comportamento de suas criações. Tornar algo seguro quando não temos plena compreensão de como ela funciona é, na melhor das hipóteses, uma proposta temerária. Assim, esforços serão necessários para criar IAs capazes de se explicarem de maneiras que os humanos possam compreender.
Em um nível mais geral, precisamos que mais pessoas trabalhem no problema, incluindo matemáticos, lógicos, eticistas, economistas, cientistas sociais e filósofos.
O problema da superinteligência artificial está colocado para ser o desafio mais difícil que a nossa espécie já enfrentou, e podemos muito bem falhar. Mas nós temos que tentar.

Raissa
https://www.msn.com/pt-br/noticias/ciencia-e-tecnologia/como-podemos-nos-preparar-para-a-superintelig%C3%AAncia-artificial-catastr%C3%B3fica-%E2%80%94-e-por-que-n%C3%A3o-podemos-esperar/ar-BBUFx5h
Kommentare