Funcionários da OpenAI e do Google DeepMind alertam sobre riscos de IA

Oi galera, prontos para mergulhar no mundo louco das notícias de cripto? Junte-se ao nosso canal do Telegram onde deciframos os mistérios da blockchain e rimos das mudanças de humor imprevisíveis do Bitcoin. É como uma novela, mas com mais drama descentralizado! Não fique de fora, venha com a gente agora e vamos aproveitar a montanha-russa das criptos juntos! 💰🎢

Junte-se ao Telegram


Como analista experiente que acompanhou de perto o desenvolvimento da tecnologia de Inteligência Artificial (IA), partilho as preocupações levantadas pelo grupo de actuais e antigos funcionários na carta aberta. A falta de transparência e de responsabilização na indústria da IA ​​é uma questão significativa que precisa de ser abordada.


Vários indivíduos que trabalharam anteriormente para empresas líderes de IA, como a OpenAI da Microsoft e a DeepMind da Alphabet, expressaram apreensão em relação aos perigos potenciais decorrentes do avanço da tecnologia de inteligência artificial.

Como analista, defendi o reconhecimento do direito de alertar para funcionários em empresas de IA de ponta, não com base em quaisquer preocupações pessoais ou críticas sobre práticas de denúncia em meus locais de trabalho anteriores ou atuais.

— Neel Nanda (@NeelNanda5) 4 de junho de 2024

Como analista, eu reformularia a frase da seguinte forma: eu, junto com outros 13 profissionais, escrevi uma carta publicada na terça-feira, defendendo o reconhecimento do “direito de alertar” em relação à inteligência artificial (IA). A natureza clandestina da indústria é uma preocupação que pretendemos abordar nesta declaração aberta. Entre nós estão funcionários atuais e ex-funcionários da OpenAI, Google DeepMind e Anthropic.

A carta destaca que as empresas de IA mantêm dados valiosos e não divulgados sobre as funcionalidades e os perigos das suas tecnologias. Contudo, estas entidades enfrentam uma compulsão mínima para divulgar tais informações ao sector público ou à sociedade civil. Esta natureza oculta dos desenvolvimentos da IA ​​suscita desconforto relativamente às potenciais ameaças e consequências negativas associadas à inteligência artificial.

A OpenAI defendeu as suas ações, referenciando os seus mecanismos de relatórios internos e a implementação cuidadosa de novas tecnologias. Em contraste, o Google permaneceu em silêncio sobre esta questão.

O avanço da tecnologia de IA levanta apreensões crescentes sobre os seus perigos potenciais, com o atual aumento da IA ​​a intensificar estas preocupações. Embora tenha havido compromissos públicos para garantir uma progressão segura, especialistas e especialistas apontam a ausência de mecanismos de monitorização suficientes. Como resultado, as ferramentas de IA podem exacerbar os riscos sociais existentes ou introduzir novos.

Uma carta aberta defende quatro princípios essenciais: transparência, responsabilidade e proteção dos funcionários que expressam preocupações de segurança. A carta insta as empresas a absterem-se de impor cláusulas de não depreciação que impeçam os funcionários de partilhar riscos relativos à IA. Além disso, recomenda a criação de canais para denúncias anônimas ao conselho.

A divulgação da carta ocorre após a saída de indivíduos importantes da OpenAI, incluindo o especialista em segurança Jan Leike, que expressou apreensão sobre a diminuição do foco da empresa em garantir a segurança em seus desenvolvimentos de IA. Além disso, os rumores de políticas restritivas em relação à expressão dos funcionários acrescentam peso às preocupações sobre a transparência e os direitos dos trabalhadores no setor da IA.

Com o rápido avanço da inteligência artificial, haverá demandas persistentes por protocolos de segurança reforçados e salvaguardas robustas para denunciantes em conversas relacionadas dentro da indústria.

2024-06-05 09:09