OpenAI acusado de amordaçar ilegalmente as preocupações dos funcionários

Oi galera, prontos para mergulhar no mundo louco das notícias de cripto? Junte-se ao nosso canal do Telegram onde deciframos os mistérios da blockchain e rimos das mudanças de humor imprevisíveis do Bitcoin. É como uma novela, mas com mais drama descentralizado! Não fique de fora, venha com a gente agora e vamos aproveitar a montanha-russa das criptos juntos! 💰🎢

Junte-se ao Telegram


Como pesquisador com experiência em tecnologia e legislação trabalhista, considero as alegações contra a OpenAI preocupantes e preocupantes. As acusações dos denunciantes de restringir ilegalmente a comunicação de preocupações de segurança por parte dos funcionários ressoam em mim, dada a minha experiência neste campo. É essencial que as empresas, especialmente aquelas que lidam com tecnologias avançadas como a IA, priorizem a transparência e adiram às proteções federais aos denunciantes.


A OpenAI está sob investigação pela Securities and Exchange Commission (SEC), já que denunciantes alegaram que a empresa suprimiu ilegalmente relatórios de funcionários sobre questões de segurança.

OpenAI acusado de amordaçar ilegalmente as preocupações dos funcionários

A correspondência de um denunciante afirma que a OpenAI forneceu aos seus funcionários contratos de rescisão e confidencialidade excessivamente restritivos.

Havia rumores de que os termos desses acordos incluíam cláusulas com possíveis repercussões se os funcionários denunciassem a OpenAI às autoridades governamentais para investigação.

Uma carta dirigida ao comissário da SEC, enviada no início deste mês, indicava que a OpenAI obrigou sua equipe a renunciar à sua elegibilidade para incentivos federais a denunciantes e buscou a aprovação da corporação antes de compartilhar detalhes com as autoridades reguladoras.

Violação das proteções federais para denunciantes

Os informantes destacaram que esses contratos violavam leis federais destinadas a proteger indivíduos que pretendem expor irregularidades corporativas, como fraude, sem exigir que divulguem suas identidades ou sejam demitidos.

Enquanto investigador que investiga a utilização de contratos de tecnologia de IA, deparei-me com outra fonte anónima que levantou preocupações sobre as possíveis consequências que estes acordos podem ter na prontidão dos funcionários para divulgar potenciais perigos relacionados com sistemas de IA.

A porta-voz da OpenAI, Hannah Wong, disse:

“Os funcionários podem relatar preocupações confidencialmente de acordo com nossa política de denúncias e, dada a importância deste tópico, acreditamos que ele merece um diálogo aberto. Consequentemente, revisamos nossas políticas de saída para não incluir mais cláusulas de não depreciação.”

Preocupações crescentes com a segurança da IA

Os críticos levantaram objeções em meio às recentes transições da OpenAI de uma organização sem fins lucrativos dedicada ao bem-estar público para uma empresa orientada para receitas. A questão principal reside na percepção da priorização dos lucros em detrimento das preocupações de segurança. Além disso, foram feitas acusações de que a OpenAI lançou um novo modelo de IA não verificado, sem aderir aos protocolos de segurança estabelecidos, e o fez de forma precipitada.

Na sequência deste desenvolvimento, têm surgido preocupações crescentes sobre os potenciais danos causados ​​pela IA, tais como a sua aplicação na criação de armas biológicas ou no lançamento de ataques cibernéticos.

O senador Chuck Grassley disse:

Parece que as políticas e procedimentos da OpenAI podem desencorajar os denunciantes de apresentar denúncias de irregularidades e receber compensação adequada pelas suas divulgações protegidas.

Grassley enfatizou o papel crucial que os denunciantes desempenham ao ajudar o governo federal a gerenciar os riscos relacionados à tecnologia de IA.

Postura de Sam Altman

Com base no relatório da Coingape, Sam Altman, CEO da OpenAI, ofereceu explicações sobre os acordos de saída em maio, à medida que crescia o interesse público no assunto.

Vários funcionários, incluindo Jan Leike, decidiram recentemente deixar a empresa. Leike afirmou que a empresa estava mudando seu foco de garantir a segurança da IA ​​para priorizar o desenvolvimento de produtos.

O CEO da OpenAI corrigiu um mal-entendido em relação a uma disposição em documentos de rescisão anteriores sobre potencial revogação de capital. Ele enfatizou que esta condição nunca havia sido implementada pela OpenAI e garantiu que quaisquer opções de ações adquiridas permaneceriam seguras, independentemente do resultado do contrato atual.

JPMorgan e Wells Fargo em bilhões de dívidas incobráveis, os federais intervirão

2024-07-14 03:57