AI News: Lilian Weng sai da OpenAI adicionando a uma lista de partidas da equipe de segurança

Oi galera, prontos para mergulhar no mundo louco das notícias de cripto? Junte-se ao nosso canal do Telegram onde deciframos os mistérios da blockchain e rimos das mudanças de humor imprevisíveis do Bitcoin. É como uma novela, mas com mais drama descentralizado! Não fique de fora, venha com a gente agora e vamos aproveitar a montanha-russa das criptos juntos! 💰🎢

Junte-se ao Telegram


Como analista com mais de duas décadas de experiência em IA e tecnologia, fico intrigado e preocupado com os desenvolvimentos recentes na OpenAI. A saída de Lilian Weng, uma profissional experiente que desempenhou um papel fundamental na definição dos sistemas de segurança da empresa, é uma perda significativa para a indústria.

Últimas notícias: Lilian Weng, que ocupou o cargo de vice-presidente de Pesquisa e Segurança da OpenAI por sete anos, decidiu se separar da empresa. Durante sua gestão, Weng foi fundamental no projeto dos mecanismos de segurança da OpenAI, um aspecto fundamental de sua abordagem ética de IA.

Sua saída, a partir de 15 de novembro, coincide com uma tendência recente de saídas entre os membros da equipe de segurança de IA da OpenAI, incluindo figuras-chave como Jan Leike e Ilya Sutskever. Esses indivíduos supervisionaram conjuntamente a equipe do Superalignment, projeto dedicado a garantir o controle de inteligência artificial altamente inteligente.

AI News: Lilian Weng, vice-presidente de segurança da OpenAI, renuncia, citando a necessidade de novos desafios

No X (antigo Twitter), Lilian Weng compartilhou recentemente seus motivos para deixar a OpenAI, cargo que ocupava desde 2018. Weng expressou que, após sete anos na empresa, era o momento certo para ela dar um passo atrás e embarcar em uma nova aventura. Entre suas realizações na OpenAI, Weng desempenhou um papel significativo no crescimento da equipe de Sistemas de Segurança, que eventualmente se expandiu para incluir mais de 80 membros.

Sem dúvida, Weng atribuiu os sucessos da equipe, demonstrando orgulho em seus avanços e fé de que prosperaria mesmo após sua saída. No entanto, a demissão de Weng sublinha um padrão recorrente dentro do grupo de segurança de IA da OpenAI, com vários membros a expressarem preocupações sobre a evolução do foco da empresa.

Inicialmente, Weng tornou-se membro da equipe de robótica da OpenAI, onde se concentrou em projetos complexos, como ensinar uma mão robótica a resolver um cubo de Rubik. Com o tempo, ela mudou seu papel para a segurança da inteligência artificial, eventualmente assumindo a responsabilidade de supervisionar as medidas de segurança da OpenAI após o lançamento do GPT-4. Esta transição significou o compromisso crescente da Weng em garantir a evolução segura dos sistemas de IA da OpenAI.

Em notícias recentes sobre IA, Weng não especificou seus planos, mas afirmou: 

Depois de passar quase sete anos na OpenAI, é hora de seguir em frente. O conhecimento que adquiri lá é imenso e me sinto preparado para um novo começo e novas oportunidades emocionantes.

OpenAI dissolve equipe de superalinhamento conforme mudança de prioridades de segurança

Recentemente, a OpenAI optou por desmantelar seu grupo Superalignment, um projeto liderado conjuntamente por Jan Leike e pelo cofundador Ilya Sutskever que visava criar controles para IA com capacidades superinteligentes. Esta decisão acendeu debates sobre se a OpenAI está a colocar maior ênfase nas ofertas comerciais em vez de garantir a segurança no desenvolvimento da IA.

De acordo com as últimas notícias sobre IA, a equipe de liderança da OpenAI, liderada pelo CEO Sam Altman, tem se concentrado mais em lançar produtos como o GPT-4o – um modelo generativo avançado – em vez de se aprofundar na pesquisa de superalinhamento. Diz-se que esta mudança de foco levou às demissões de Leike e Sutskever no início deste ano, com outros membros da equipe de segurança e política de IA também deixando a OpenAI.

Ilya e OpenAI estão prestes a seguir caminhos separados, o que me enche de grande tristeza. Ilya é inegavelmente uma das mentes mais brilhantes do nosso tempo, um farol em nosso campo e alguém que considero querido. Seu gênio e visão são amplamente reconhecidos; sua bondade e compaixão, embora menos divulgadas, são igualmente valiosas.

— Sam Altman (@sama) 14 de maio de 2024

O objetivo da equipe do Superalinhamento era desenvolver estratégias para supervisionar sistemas de IA que possam realizar tarefas tão complexas quanto os humanos. No entanto, a sua dissolução suscitou preocupações entre antigos funcionários e especialistas do setor, que temem que o foco da empresa na criação de produtos possa comprometer a implementação de protocolos de segurança rigorosos.

Recentemente, a OpenAI revelou um novo recurso para ChatGPT chamado ChatGPT Search, que emprega o sofisticado modelo GPT-40 para fornecer funções de pesquisa imediata para diversos tópicos, como resultados esportivos, tendências do mercado de ações e eventos atuais.

Além disso, Elon Musk, CEO da Tesla, expressou preocupações sobre os perigos potenciais da IA, prevendo uma probabilidade de 10-20% de os desenvolvimentos da IA ​​se comportarem de forma autónoma. Dirigindo-se a uma reunião recente, Musk apelou à cautela e às discussões éticas no desenvolvimento da tecnologia de IA. Ele sublinhou que o rápido avanço da IA ​​poderá permitir que os sistemas executem tarefas sofisticadas semelhantes às capacidades humanas nos próximos dois anos.

2024-11-09 06:00