Oi galera, prontos para mergulhar no mundo louco das notícias de cripto? Junte-se ao nosso canal do Telegram onde deciframos os mistérios da blockchain e rimos das mudanças de humor imprevisíveis do Bitcoin. É como uma novela, mas com mais drama descentralizado! Não fique de fora, venha com a gente agora e vamos aproveitar a montanha-russa das criptos juntos! 💰🎢
☞ Junte-se ao Telegram
Como pesquisador com experiência em tecnologia e legislação trabalhista, considero as alegações contra a OpenAI preocupantes e preocupantes. As acusações dos denunciantes de restringir ilegalmente a comunicação de preocupações de segurança por parte dos funcionários ressoam em mim, dada a minha experiência neste campo. É essencial que as empresas, especialmente aquelas que lidam com tecnologias avançadas como a IA, priorizem a transparência e adiram às proteções federais aos denunciantes.
A OpenAI está sob investigação pela Securities and Exchange Commission (SEC), já que denunciantes alegaram que a empresa suprimiu ilegalmente relatórios de funcionários sobre questões de segurança.
OpenAI acusado de amordaçar ilegalmente as preocupações dos funcionários
A correspondência de um denunciante afirma que a OpenAI forneceu aos seus funcionários contratos de rescisão e confidencialidade excessivamente restritivos.
Havia rumores de que os termos desses acordos incluíam cláusulas com possíveis repercussões se os funcionários denunciassem a OpenAI às autoridades governamentais para investigação.
Uma carta dirigida ao comissário da SEC, enviada no início deste mês, indicava que a OpenAI obrigou sua equipe a renunciar à sua elegibilidade para incentivos federais a denunciantes e buscou a aprovação da corporação antes de compartilhar detalhes com as autoridades reguladoras.
Violação das proteções federais para denunciantes
Os informantes destacaram que esses contratos violavam leis federais destinadas a proteger indivíduos que pretendem expor irregularidades corporativas, como fraude, sem exigir que divulguem suas identidades ou sejam demitidos.
Enquanto investigador que investiga a utilização de contratos de tecnologia de IA, deparei-me com outra fonte anónima que levantou preocupações sobre as possíveis consequências que estes acordos podem ter na prontidão dos funcionários para divulgar potenciais perigos relacionados com sistemas de IA.
A porta-voz da OpenAI, Hannah Wong, disse:
“Os funcionários podem relatar preocupações confidencialmente de acordo com nossa política de denúncias e, dada a importância deste tópico, acreditamos que ele merece um diálogo aberto. Consequentemente, revisamos nossas políticas de saída para não incluir mais cláusulas de não depreciação.”
Preocupações crescentes com a segurança da IA
Os críticos levantaram objeções em meio às recentes transições da OpenAI de uma organização sem fins lucrativos dedicada ao bem-estar público para uma empresa orientada para receitas. A questão principal reside na percepção da priorização dos lucros em detrimento das preocupações de segurança. Além disso, foram feitas acusações de que a OpenAI lançou um novo modelo de IA não verificado, sem aderir aos protocolos de segurança estabelecidos, e o fez de forma precipitada.
Na sequência deste desenvolvimento, têm surgido preocupações crescentes sobre os potenciais danos causados pela IA, tais como a sua aplicação na criação de armas biológicas ou no lançamento de ataques cibernéticos.
O senador Chuck Grassley disse:
Parece que as políticas e procedimentos da OpenAI podem desencorajar os denunciantes de apresentar denúncias de irregularidades e receber compensação adequada pelas suas divulgações protegidas.
Grassley enfatizou o papel crucial que os denunciantes desempenham ao ajudar o governo federal a gerenciar os riscos relacionados à tecnologia de IA.
Postura de Sam Altman
Com base no relatório da Coingape, Sam Altman, CEO da OpenAI, ofereceu explicações sobre os acordos de saída em maio, à medida que crescia o interesse público no assunto.
Vários funcionários, incluindo Jan Leike, decidiram recentemente deixar a empresa. Leike afirmou que a empresa estava mudando seu foco de garantir a segurança da IA para priorizar o desenvolvimento de produtos.
O CEO da OpenAI corrigiu um mal-entendido em relação a uma disposição em documentos de rescisão anteriores sobre potencial revogação de capital. Ele enfatizou que esta condição nunca havia sido implementada pela OpenAI e garantiu que quaisquer opções de ações adquiridas permaneceriam seguras, independentemente do resultado do contrato atual.
JPMorgan e Wells Fargo em bilhões de dívidas incobráveis, os federais intervirão
- PYTH PREVISÃO. PYTH criptomoeda
- WLD PREVISÃO. WLD criptomoeda
- INJ PREVISÃO. INJ criptomoeda
- HIPPO PREVISÃO. HIPPO criptomoeda
- Google Pay, Amazon Pay e Phonepe Eye Entry, apoiado pelo Walmart, no programa de rupia digital do RBI
- ONT PREVISÃO. ONT criptomoeda
- GOAT PREVISÃO. GOAT criptomoeda
- ARB PREVISÃO. ARB criptomoeda
- EUR BRL PREVISÃO
- FTM PREVISÃO. FTM criptomoeda
2024-07-14 03:57