Em uma reunião das Nações Unidas sobre riscos globais iminentes, representantes políticos de todo o mundo foram alertados sobre as ameaças da inteligência artificial e outras tecnologias futuras.
>>> Stephen Hawking: inteligência artificial pode ser o “maior erro na história”
>>> Criador do Linux duvida que inteligências artificiais causem o apocalipse
>>> Criador do Linux duvida que inteligências artificiais causem o apocalipse
O evento foi organizado pelos representantes da Geórgia na ONU e pelo Instituto de Investigação Inter-regional de Crime e Justiça das Nações Unidas (UNICRI). Ele foi criado para debater os riscos de segurança criados por novas tecnologias, incluindo materiais químicos, biológicos, radiológicos e nucleares (CBRN).
O painel também fez uma discussão especial sobre as potenciais ameaças levantadas pela superinteligência artificial, isto é, a AI cujas capacidades excedem muito os humanos. O objetivo da reunião, realizada em 14 de outubro, foi discutir as implicações de tecnologias emergentes, e como mitigar riscos antes que eles apareçam.
A reunião na íntegra. Max Tegmark começa a falar no ponto 1:55:00, e Bostrom em 2:14:00.
A reunião contou com dois especialistas proeminentes sobre o assunto: Max Tegmark, físico do MIT, e Nick Bostrom, fundador do Future of Humanity Institute na Universidade Oxford e autor do livro Superinteligência: Caminhos, Perigos, Estratégias.
Ambos concordaram que a AI tem o potencial de transformar a sociedade humana de maneiras profundamente positivas, mas também levantaram questões sobre como a tecnologia pode rapidamente sair do controle e se voltar contra nós.
No ano passado, Tegmark alertou sobre a cultura atual de complacência em relação a máquinas superinteligentes, em uma carta assinada também pelo físico Stephen Hawking, pelo professor de ciência da computação Stuart Russell, e pelo físico Frank Wilczek.
“Pode-se imaginar tal tecnologia superando a inteligência de mercados financeiros, sendo mais criativa que inventores humanos, manipulando líderes humanos, e desenvolvendo armas que não podemos sequer entender”, escreveram os autores. “O impacto de curto prazo da AI depende de quem a controla, mas o impacto a longo prazo depende de saber se ela pode mesmo ser controlada.”
Nick Bostrom (Crédito: UN Web TV)
De fato, como Bostrom explicou no evento, a superinteligência cria novos desafios técnicos – e o “problema do controle” é o mais crítico.
“Há cenários plausíveis em que os sistemas superinteligentes se tornam muito poderosos”, ele disse na reunião, “e há modos superficialmente plausíveis de resolver o problema do controle – ideias que imediatamente vêm à mente das pessoas e que, num exame mais próximo, acabam falhando. Portanto, há esse problema atualmente aberto e sem solução de como desenvolver melhores mecanismos de controle”.
Isso será difícil, diz Bostrom, porque precisaremos ter esses mecanismos de controle antes de criar os sistemas inteligentes.
Bostrom fechou sua parte da reunião recomendando que um campo de pesquisa seja criado para avançar trabalhos envolvendo o problema do controle, atraindo os maiores especialistas em matemática e ciência da computação para esse campo.
Ele pediu por uma forte colaboração de pesquisa entre a comunidade de segurança de AI e de desenvolvimento de AI, e para que todas as partes envolvidas incorporem o Princípio do Bem Comum em todos os projetos de IA de longo prazo. Esta é uma tecnologia única, disse ele, que deve ser desenvolvida para o bem comum da humanidade, e não apenas para indivíduos ou empresas privadas.
Como Bostrom explicou na ONU, a superinteligência representa “um risco que ameaça a extinção prematura de vida inteligente na Terra, ou a destruição permanente e drástica de seu potencial para um desenvolvimento futuro desejável”. A atividade humana, advertiu Bostrom, representa uma ameaça muito maior para o futuro da humanidade nos próximos 100 anos do que desastres naturais.
“Todos os riscos existenciais realmente grandes estão na categoria antropogênica”, disse ele. “Os seres humanos sobreviveram a terremotos, pragas, queda de asteroides, mas neste século vamos introduzir fenômenos e fatores inteiramente novos para o mundo. A maioria das ameaças plausíveis têm a ver com tecnologias futuras previstas.”
Pode demorar décadas até que vejamos os tipos de superinteligência descritos nesta reunião da ONU, mas já que estamos falando de riscos em potencial, nunca é cedo para começar.
Nenhum comentário:
Postar um comentário