As
ameaças de inteligência artificial que os cientistas mais temem
Seleto grupo de pesquisadores compilou um relatório
sinistro sobre os perigos de inteligências artificiais maliciosas.
PorDaniel OberhausTraduzido
porThiago “Índio” Silva
Fev 23
2018, 5:20pm
Quando pensamos em inteligência
artificial (IA), a tendência é lembrarmos das representações humanizadas da
aprendizagem por máquina tipo Siri e Alexa . A verdade, porém, é que temos IAs como algo
invisível a nós por todos os cantos, da medicina às finanças.
É certo que boa parte das
‘inteligências artificiais’ em atividade no momento é bem burrinha quando
comparamos com um ser humano – um algoritmo pode muito bem humilhar uma pessoa
na realização de uma tarefa específica, como jogar Go e sofrer com
algo besta como diferenciar uma tartaruguinha de
uma arma. Ainda assim, o futuro que se põe no horizonte é, ao menos
para muitos cientistas, algo tenebroso.
Semanas atrás, um grupo de 26
grandes nomes no ramo da pesquisa em IA se encontrou em Oxford, na Inglaterra,
para debater sobre como uma inteligência artificial sobrehumana poderá ser
usada no futuro para fins maliciosos. O resultado destes dois dias de
conferência foi um relatório abrangente de 100 páginas
publicado nesta semana. O documento mergulha fundo nos riscos oferecidos por
uma IA nas mãos erradas, bem como estratégias para reduzir as chances de dar
uma gigantesca merda.
Uma das quatro recomendações de
alto nível feita pelo grupo foi que pesquisadores e engenheiros no ramo de
inteligência artificial levem em consideração a natureza ambígua de seu
trabalho a sério, isto é, que atente para um mau uso que pode influenciar
prioridades na pesquisa e normas.
Tal recomendação se faz relevante
sob a luz da recente ascensão de “deepfakes”, um método de IA capaz de inserir
os rostos de atrizes famosas nos corpos de atrizes pornográficas. A
possibilidade se torna real ao adaptar uma biblioteca de aprendizado por
máquina de código aberto chamada TensorFlow (como já relatado por nosso réporter
Sam Cole), desenvolvida originalmente por engenheiros de software do
Google. O caso sublinha a natureza ambígua ( dual, na linguagem dos
cientistas gringos) de uso dessas ferramentas e levanta questionamentos sobre
quem deveria ter acesso a elas.
Por mais que os deepfakes sejam
mencionados no relatório, os pesquisadores também destacam o uso de técnicas
semelhantes na manipulação de vídeos de líderes mundiais de forma a ameaçar a
segurança política, uma das três áreas de risco levadas em consideração pelos
pesquisadores. Basta imaginar um vídeo falso de Donald Trump
declarando guerra à Coreia do Norte rodando em Pyongyang para ter
noção do perigo.
Pesquisadores também notaram que
o uso de IA pode levar a níveis nunca antes vistos de vigilância em massa por
meio de análise de dados e de persuasão em massa via propaganda direcionada.
As outras duas grandes áreas
consideradas de risco em questão de IA são segurança física e digital. Em
termos de segurança digital, o uso de IAs em ataques cibernéticos “melhorará a
relação entre escala e eficácia dos ataques”, podendo levar ofensivas de
phishing a escalas maiores e mais sofisticadas.
Já em termos físicos, os
pesquisadores analisaram a dependência cada vez maior do mundo de sistemas
automatizados: ao passo em que mais casas e carros inteligentes entram na rede,
a IA pode ser usada de forma a subverter tais sistemas, causando assim danos
catastróficos. Sem contar a ameaça de sistemas de inteligência artificial
deliberadamente maliciosos, como no caso de armas autônomas ou enxames de
micro-drones.
Alguns dos cenários apresentados,
como a praga de micro-drones autônomos, parecem bem distantes; já outros, a
exemplo de ataques cibernéticos em larga escala,
armamento autônomo e
manipulação de vídeo, causam problemas agora.
Para combater tais questões e
garantir que a inteligência artificial seja usada em prol da humanidade, os
pesquisadores recomendam o desenvolvimento de novas práticas e a exploração de
diferentes “modelos de transparência” para reduzir riscos.
Os pesquisadores sugerem, por
exemplo, que modelos de licenciamento centralizados poderiam impedir que
tecnologias de inteligência artificial caíssem nas mãos erradas ou talvez
instituir alguma espécie de programa de monitoramento para não perder de vista
o uso de recursos em IA.
“Tendências atuais enfatizam acesso amplo à
pesquisa e desenvolvimento de ponta”, diz o texto. “Caso estas tendências
prossigam desta forma ao longo dos próximos cinco anos, esperamos que pessoas
mal-intencionadas possam causar cada vez mais danos a sistemas robóticos e
digitais”.
Por outro lado, os pesquisadores
também reconhecem que a proliferação de tecnologias de inteligência artificial
de código aberto atrairá cada vez mais legisladores e agências reguladoras que,
por sua vez, instaurarão limitações às tecnologias. Em termos de como isso deve
acontecer, é um debate a ser feito em nível local, nacional e internacional.
“Ainda restam muitas
discordâncias entre os autores deste relatório e tantas mais entre as diversas
comunidades de especialistas pelo mundo”, conclui o texto. “Muitas delas não
serão resolvidas até obtermos mais dados, mas tal incerteza de discordância não
deve nos impedir de tomar ações preventivas hoje mesmo.”
Leia mais
matérias de ciência e tecnologia no canal MOTHERBOARD .
Siga o Motherboard Brasil no Facebook e no Twitter .
Siga a VICE Brasil no Facebook , Twitter e Instagram .
Siga o Motherboard Brasil no Facebook e no Twitter .
Siga a VICE Brasil no Facebook , Twitter e Instagram .
Nenhum comentário:
Postar um comentário