03 março, 2018

Singularidade



As ameaças de inteligência artificial que os cientistas mais temem
Seleto grupo de pesquisadores compilou um relatório sinistro sobre os perigos de inteligências artificiais maliciosas.
Fev 23 2018, 5:20pm
https://vice-web-statics-cdn.vice.com/images/blank.png




 Quando pensamos em inteligência artificial (IA), a tendência é lembrarmos das representações humanizadas da aprendizagem por máquina tipo Siri e Alexa . A verdade, porém, é que temos IAs como algo invisível a nós por todos os cantos, da medicina às finanças.

É certo que boa parte das ‘inteligências artificiais’ em atividade no momento é bem burrinha quando comparamos com um ser humano – um algoritmo pode muito bem humilhar uma pessoa na realização de uma tarefa específica, como jogar Go e sofrer com algo besta como diferenciar uma tartaruguinha de uma arma. Ainda assim, o futuro que se põe no horizonte é, ao menos para muitos cientistas, algo tenebroso.

Semanas atrás, um grupo de 26 grandes nomes no ramo da pesquisa em IA se encontrou em Oxford, na Inglaterra, para debater sobre como uma inteligência artificial sobrehumana poderá ser usada no futuro para fins maliciosos. O resultado destes dois dias de conferência foi um relatório abrangente de 100 páginas publicado nesta semana. O documento mergulha fundo nos riscos oferecidos por uma IA nas mãos erradas, bem como estratégias para reduzir as chances de dar uma gigantesca merda.

Uma das quatro recomendações de alto nível feita pelo grupo foi que pesquisadores e engenheiros no ramo de inteligência artificial levem em consideração a natureza ambígua de seu trabalho a sério, isto é, que atente para um mau uso que pode influenciar prioridades na pesquisa e normas.

Tal recomendação se faz relevante sob a luz da recente ascensão de “deepfakes”, um método de IA capaz de inserir os rostos de atrizes famosas nos corpos de atrizes pornográficas. A possibilidade se torna real ao adaptar uma biblioteca de aprendizado por máquina de código aberto chamada TensorFlow (como já relatado por nosso réporter Sam Cole), desenvolvida originalmente por engenheiros de software do Google. O caso sublinha a natureza ambígua ( dual, na linguagem dos cientistas gringos) de uso dessas ferramentas e levanta questionamentos sobre quem deveria ter acesso a elas. 

Por mais que os deepfakes sejam mencionados no relatório, os pesquisadores também destacam o uso de técnicas semelhantes na manipulação de vídeos de líderes mundiais de forma a ameaçar a segurança política, uma das três áreas de risco levadas em consideração pelos pesquisadores. Basta imaginar um vídeo falso de Donald Trump declarando guerra à Coreia do Norte rodando em Pyongyang para ter noção do perigo.
Pesquisadores também notaram que o uso de IA pode levar a níveis nunca antes vistos de vigilância em massa por meio de análise de dados e de persuasão em massa via propaganda direcionada.

As outras duas grandes áreas consideradas de risco em questão de IA são segurança física e digital. Em termos de segurança digital, o uso de IAs em ataques cibernéticos “melhorará a relação entre escala e eficácia dos ataques”, podendo levar ofensivas de phishing a escalas maiores e mais sofisticadas.

Já em termos físicos, os pesquisadores analisaram a dependência cada vez maior do mundo de sistemas automatizados: ao passo em que mais casas e carros inteligentes entram na rede, a IA pode ser usada de forma a subverter tais sistemas, causando assim danos catastróficos. Sem contar a ameaça de sistemas de inteligência artificial deliberadamente maliciosos, como no caso de armas autônomas ou enxames de micro-drones.

Alguns dos cenários apresentados, como a praga de micro-drones autônomos, parecem bem distantes; já outros, a exemplo de ataques cibernéticos em larga escala, armamento autônomo e manipulação de vídeo, causam problemas agora.

Para combater tais questões e garantir que a inteligência artificial seja usada em prol da humanidade, os pesquisadores recomendam o desenvolvimento de novas práticas e a exploração de diferentes “modelos de transparência” para reduzir riscos. 

Os pesquisadores sugerem, por exemplo, que modelos de licenciamento centralizados poderiam impedir que tecnologias de inteligência artificial caíssem nas mãos erradas ou talvez instituir alguma espécie de programa de monitoramento para não perder de vista o uso de recursos em IA.

 “Tendências atuais enfatizam acesso amplo à pesquisa e desenvolvimento de ponta”, diz o texto. “Caso estas tendências prossigam desta forma ao longo dos próximos cinco anos, esperamos que pessoas mal-intencionadas possam causar cada vez mais danos a sistemas robóticos e digitais”.

Por outro lado, os pesquisadores também reconhecem que a proliferação de tecnologias de inteligência artificial de código aberto atrairá cada vez mais legisladores e agências reguladoras que, por sua vez, instaurarão limitações às tecnologias. Em termos de como isso deve acontecer, é um debate a ser feito em nível local, nacional e internacional.

“Ainda restam muitas discordâncias entre os autores deste relatório e tantas mais entre as diversas comunidades de especialistas pelo mundo”, conclui o texto. “Muitas delas não serão resolvidas até obtermos mais dados, mas tal incerteza de discordância não deve nos impedir de tomar ações preventivas hoje mesmo.”

Leia mais matérias de ciência e tecnologia no canal MOTHERBOARD .
Siga o Motherboard Brasil no Facebook e no Twitter .
Siga a VICE Brasil no Facebook , Twitter e Instagram .
https://vice-web-statics-cdn.vice.com/images/blank.png


Nenhum comentário:

Postar um comentário