Conselho de supervisão de formulários OpenAI liderado por Sam Altman

Oi galera, prontos para mergulhar no mundo louco das notícias de cripto? Junte-se ao nosso canal do Telegram onde deciframos os mistérios da blockchain e rimos das mudanças de humor imprevisíveis do Bitcoin. É como uma novela, mas com mais drama descentralizado! Não fique de fora, venha com a gente agora e vamos aproveitar a montanha-russa das criptos juntos! 💰🎢

Junte-se ao Telegram


Como pesquisador com formação em inteligência artificial e experiência no acompanhamento dos desenvolvimentos na área, acompanho de perto os movimentos recentes da OpenAI com grande interesse. A formação de um Comité de Segurança e Proteção pelo conselho é um passo positivo no sentido de abordar as preocupações em torno da segurança e proteção dos seus modelos de IA, particularmente à luz da saída de figuras-chave como o cientista-chefe Ilya Sutskever e o chefe do superalinhamento Jan Leike.


Aproximadamente algumas semanas após a saída da principal figura da OpenAI responsável pela segurança e proteção da IA, a empresa reformulou a sua estrutura de governação e instituiu um novo comité do conselho encarregado de avaliar os aspetos de segurança e proteção dos seus modelos avançados de IA.

O Conselho da OpenAI estabelece um Comitê de Segurança e Proteção, encarregado de fornecer orientação sobre questões cruciais de segurança e proteção para todas as iniciativas da OpenAI.

— OpenAI (@OpenAI) 28 de maio de 2024

Dois membros anteriores do conselho, Helen Toner e Tasha McCauley, escreveram artigos críticos sobre a liderança da OpenAI na publicação Economist do fim de semana passado.

O grupo recém-formado avaliará os protocolos de segurança tecnológica da OpenAI por um período de três meses antes de divulgar um relatório sobre suas descobertas. De acordo com um post publicado pela OpenAI na terça-feira, a empresa pretende tornar pública a sua resposta a estas recomendações de uma forma que garanta segurança e transparência.

O rápido progresso recente em IA por parte desta empresa privada levantou preocupações sobre a sua abordagem à gestão de riscos potenciais associados à tecnologia.

No outono passado, aumentaram as tensões entre o CEO Sam Altman e o cofundador e cientista-chefe Ilya Sutskever sobre a velocidade do desenvolvimento de produtos de IA e medidas de segurança. Como resultado, houve uma breve mudança de poder na sala de reuniões, durante a qual Sam Altman foi temporariamente destituído de seu cargo.

Como pesquisador nesta área, percebi que os desenvolvimentos recentes suscitaram preocupações renovadas na indústria após a saída de duas figuras importantes da OpenAI: Geoffrey Hinton (Sutskever) e Jan Leike. Eles lideraram a equipe de superalinhamento, que se concentra em enfrentar ameaças potenciais representadas pela IA superinteligente. Leike, que optou por sair, mencionou as restrições de recursos como razão para a sua decisão, um sentimento partilhado por outros colegas que partiram.

Após a saída de Sutskever, a OpenAI integrou sua equipe em seus projetos de pesquisa abrangentes, em vez de mantê-la como uma entidade distinta. O cofundador John Schulman assumiu o cargo de “Chefe da Ciência do Alinhamento”, ampliando suas responsabilidades nesta área.

A startup encontrou dificuldades ocasionais no gerenciamento de saídas de funcionários. Na semana passada, a OpenAI removeu uma cláusula de sua política que impedia ex-funcionários de reter suas opções de ações caso criticassem publicamente a empresa.

2024-05-28 21:40