Meta elimina contas de influência baseadas em IA na China e Israel

Oi galera, prontos para mergulhar no mundo louco das notícias de cripto? Junte-se ao nosso canal do Telegram onde deciframos os mistérios da blockchain e rimos das mudanças de humor imprevisíveis do Bitcoin. É como uma novela, mas com mais drama descentralizado! Não fique de fora, venha com a gente agora e vamos aproveitar a montanha-russa das criptos juntos! 💰🎢

Junte-se ao Telegram


Como um investidor criptográfico com experiência em tecnologia e segurança cibernética, considero profundamente preocupante a batalha contínua da Meta Platforms contra campanhas de influência secreta usando ferramentas de IA. A capacidade de criar desinformação através da inteligência artificial é uma tendência perigosa que pode potencialmente perturbar a integridade das plataformas de redes sociais e influenciar a opinião pública.


A Meta Platforms Inc. removeu recentemente mais de 500 contas do Facebook originárias de vários países, incluindo China, Israel, Irã e Rússia, que foram descobertas envolvidas em esforços de manipulação clandestina. Estas campanhas utilizaram tecnologias avançadas de inteligência artificial para disseminar informações falsas, de acordo com a última atualização trimestral de segurança da empresa.

Usuários maliciosos empregaram técnicas avançadas envolvendo inteligência artificial (IA) para produzir mensagens, imagens e clipes enganosos na Meta Platforms Inc. (Facebook, Instagram, WhatsApp), com o objetivo de desviar os usuários de material autêntico.

Ao analisar o estudo recente da Meta publicado na quarta-feira, descobri que, apesar de implementar IA generativa nas suas redes, a empresa mantém a sua capacidade de perturbar as estruturas existentes permanece inalterada na minha perspectiva.

Como um investidor em criptografia e um indivíduo experiente em tecnologia, fico de olho nos anúncios da Meta Platforms em relação à segurança e integridade de suas plataformas de mídia social. Recentemente, divulgaram a identificação e subsequente remoção de duas campanhas distintas de desinformação. Uma dessas redes originou-se da China e utilizou inteligência artificial (IA) para produzir imagens falsas representando um movimento pró-Sikh inexistente. A outra rede veio de Israel e empregou IA para gerar comentários expressando elogios indevidos aos militares israelenses. Felizmente, ambas as campanhas foram retiradas antes que pudessem ganhar força significativa.

Durante uma conferência de imprensa na terça-feira, o chefe de política de mitigação de ameaças da Meta, David Agranovich, partilhou a sua perspectiva, expressando que actualmente, a IA generativa não está a ser utilizada de formas significativamente complexas. O uso de IA para criar fotos de perfil ou gerar grandes quantidades de spam ainda não produziu resultados eficazes.

No entanto, Agranovich advertiu: “Estas redes são conhecidas por serem de natureza adversária. Prevemos que continuarão a adaptar as suas estratégias à medida que a sua tecnologia avança”.

Como pesquisador focado em assuntos globais na Meta, reconheço a necessidade urgente de categorizar e distinguir o conteúdo gerado pela IA do material autêntico criado pelo usuário. Com a aproximação da época eleitoral de 2024, isto torna-se ainda mais crítico à medida que mais de trinta nações se preparam para eleições internacionais. Destacam-se entre eles os Estados Unidos, a Índia e o Brasil, que dependem fortemente dos aplicativos da nossa empresa. Garantir a transparência e a confiança no espaço digital é essencial para manter a integridade dos processos democráticos em todo o mundo.

Como analista, notei uma mudança nas práticas de marcação de fotos do Meta, onde agora eles usam tags visíveis e invisíveis. Em termos de regulamentação de conteúdo, o Meta não está mais excluindo material enganoso gerado por IA, mas sim identificando-o. No Facebook e no Instagram, os anunciantes são obrigados a divulgar o uso de inteligência artificial para questões sociais, eleições ou anúncios políticos. No entanto, os anúncios políticos de figuras políticas permanecem isentos da verificação de factos por parte da empresa.

2024-05-29 23:17