24 março, 2018

Guerra civil


Morte de Marielle mobilizou 567 mil tuítes; 7% deles criticaram a esquerda
Grande maioria de usuários do Twitter expressou revolta e condolências.
https://vice-web-statics-cdn.vice.com/images/blank.png



Desde o anúncio do brutal assassinato da vereadora Marielle Franco, do PSOL, na noite de quarta-feira, no Rio de Janeiro, o Twitter se tornou a principal plataforma de mobilização sobre o caso. De acordo com levantamento da FGV-DAPP divulgado nesta sexta-feira, foram mais de 567 mil menções ao nome da política. O pico ocorreu cerca de duas horas depois do homicídio, por volta de 23h50, com 594 tuítes por minuto.

O estudo afirmou que 88% das menções a Marielle foram mensagens de luto e de destaque à trajetória de Marielle. Entre os tuítes mais populares nos grupos, afirma a pesquisa, há grande endosso à visão de que Marielle foi executada de propósito. Muitos tuítes atribuíram a culpa do crime à polícia. 

Os usuários também aproveitaram para repercutir falas de Marielle Franco na véspera de sua morte. As mais retuitadas foram as que fizeram menção ao homicídio de um adolescente pela Polícia Militar e críticas à atuação da PM em Acari, bairro da Zona Norte do Rio.

 Gráfico feito pela FGV-DAPP

Uma parcela pequena de opositores aproveitou o episódio para se manifestar contra políticas de esquerda e direitos humanos. Segundo o levantamento, 7,14% do debate foi ocupado por pessoas que se apresentavam como anti-esquerda e que defendiam medidas duras de segurança.

O principal influenciador desta pequena ala foi Flavio Morgenstern. Ele teceu comentários a favor da legalização de armas e da prisão perpétua. Também aproveitou para criticar o uso da morte pelo PSOL e que não seria justo dizer que a violência atinge mais um determinado grupo do que outro. 

Ainda que as críticas tenham sido respondidas e inflamadas, os tuítes a favor de investigação sobre o crime de Marielle Franco trouxeram mais mobilização para fora das redes. Ontem, diversas capitais nacionais receberam protestos contra a violência e o genocídio negro. No Rio de Janeiro, milhares de pessoas caminharam pelas ruas centrais da cidade e lotaram os entornos da Assembleia Legislativa Estadual do Rio de Janeiro.
Leia mais matérias de ciência e tecnologia no canal MOTHERBOARD .
Siga o Motherboard Brasil no Facebook e no Twitter .
Siga a VICE Brasil no Facebook , Twitter e Instagram .

03 março, 2018

Singularidade



As ameaças de inteligência artificial que os cientistas mais temem
Seleto grupo de pesquisadores compilou um relatório sinistro sobre os perigos de inteligências artificiais maliciosas.
Fev 23 2018, 5:20pm
https://vice-web-statics-cdn.vice.com/images/blank.png




 Quando pensamos em inteligência artificial (IA), a tendência é lembrarmos das representações humanizadas da aprendizagem por máquina tipo Siri e Alexa . A verdade, porém, é que temos IAs como algo invisível a nós por todos os cantos, da medicina às finanças.

É certo que boa parte das ‘inteligências artificiais’ em atividade no momento é bem burrinha quando comparamos com um ser humano – um algoritmo pode muito bem humilhar uma pessoa na realização de uma tarefa específica, como jogar Go e sofrer com algo besta como diferenciar uma tartaruguinha de uma arma. Ainda assim, o futuro que se põe no horizonte é, ao menos para muitos cientistas, algo tenebroso.

Semanas atrás, um grupo de 26 grandes nomes no ramo da pesquisa em IA se encontrou em Oxford, na Inglaterra, para debater sobre como uma inteligência artificial sobrehumana poderá ser usada no futuro para fins maliciosos. O resultado destes dois dias de conferência foi um relatório abrangente de 100 páginas publicado nesta semana. O documento mergulha fundo nos riscos oferecidos por uma IA nas mãos erradas, bem como estratégias para reduzir as chances de dar uma gigantesca merda.

Uma das quatro recomendações de alto nível feita pelo grupo foi que pesquisadores e engenheiros no ramo de inteligência artificial levem em consideração a natureza ambígua de seu trabalho a sério, isto é, que atente para um mau uso que pode influenciar prioridades na pesquisa e normas.

Tal recomendação se faz relevante sob a luz da recente ascensão de “deepfakes”, um método de IA capaz de inserir os rostos de atrizes famosas nos corpos de atrizes pornográficas. A possibilidade se torna real ao adaptar uma biblioteca de aprendizado por máquina de código aberto chamada TensorFlow (como já relatado por nosso réporter Sam Cole), desenvolvida originalmente por engenheiros de software do Google. O caso sublinha a natureza ambígua ( dual, na linguagem dos cientistas gringos) de uso dessas ferramentas e levanta questionamentos sobre quem deveria ter acesso a elas. 

Por mais que os deepfakes sejam mencionados no relatório, os pesquisadores também destacam o uso de técnicas semelhantes na manipulação de vídeos de líderes mundiais de forma a ameaçar a segurança política, uma das três áreas de risco levadas em consideração pelos pesquisadores. Basta imaginar um vídeo falso de Donald Trump declarando guerra à Coreia do Norte rodando em Pyongyang para ter noção do perigo.
Pesquisadores também notaram que o uso de IA pode levar a níveis nunca antes vistos de vigilância em massa por meio de análise de dados e de persuasão em massa via propaganda direcionada.

As outras duas grandes áreas consideradas de risco em questão de IA são segurança física e digital. Em termos de segurança digital, o uso de IAs em ataques cibernéticos “melhorará a relação entre escala e eficácia dos ataques”, podendo levar ofensivas de phishing a escalas maiores e mais sofisticadas.

Já em termos físicos, os pesquisadores analisaram a dependência cada vez maior do mundo de sistemas automatizados: ao passo em que mais casas e carros inteligentes entram na rede, a IA pode ser usada de forma a subverter tais sistemas, causando assim danos catastróficos. Sem contar a ameaça de sistemas de inteligência artificial deliberadamente maliciosos, como no caso de armas autônomas ou enxames de micro-drones.

Alguns dos cenários apresentados, como a praga de micro-drones autônomos, parecem bem distantes; já outros, a exemplo de ataques cibernéticos em larga escala, armamento autônomo e manipulação de vídeo, causam problemas agora.

Para combater tais questões e garantir que a inteligência artificial seja usada em prol da humanidade, os pesquisadores recomendam o desenvolvimento de novas práticas e a exploração de diferentes “modelos de transparência” para reduzir riscos. 

Os pesquisadores sugerem, por exemplo, que modelos de licenciamento centralizados poderiam impedir que tecnologias de inteligência artificial caíssem nas mãos erradas ou talvez instituir alguma espécie de programa de monitoramento para não perder de vista o uso de recursos em IA.

 “Tendências atuais enfatizam acesso amplo à pesquisa e desenvolvimento de ponta”, diz o texto. “Caso estas tendências prossigam desta forma ao longo dos próximos cinco anos, esperamos que pessoas mal-intencionadas possam causar cada vez mais danos a sistemas robóticos e digitais”.

Por outro lado, os pesquisadores também reconhecem que a proliferação de tecnologias de inteligência artificial de código aberto atrairá cada vez mais legisladores e agências reguladoras que, por sua vez, instaurarão limitações às tecnologias. Em termos de como isso deve acontecer, é um debate a ser feito em nível local, nacional e internacional.

“Ainda restam muitas discordâncias entre os autores deste relatório e tantas mais entre as diversas comunidades de especialistas pelo mundo”, conclui o texto. “Muitas delas não serão resolvidas até obtermos mais dados, mas tal incerteza de discordância não deve nos impedir de tomar ações preventivas hoje mesmo.”

Leia mais matérias de ciência e tecnologia no canal MOTHERBOARD .
Siga o Motherboard Brasil no Facebook e no Twitter .
Siga a VICE Brasil no Facebook , Twitter e Instagram .
https://vice-web-statics-cdn.vice.com/images/blank.png