Jan Leike, executivo da OpenAI, renuncia e pede medidas de segurança AGI mais fortes

Oi galera, prontos para mergulhar no mundo louco das notícias de cripto? Junte-se ao nosso canal do Telegram onde deciframos os mistérios da blockchain e rimos das mudanças de humor imprevisíveis do Bitcoin. É como uma novela, mas com mais drama descentralizado! Não fique de fora, venha com a gente agora e vamos aproveitar a montanha-russa das criptos juntos! 💰🎢

Junte-se ao Telegram


Como um investidor criptográfico com um forte interesse na IA e nas suas implicações éticas, considero profundamente preocupante a demissão de Jan Leike da OpenAI. As suas preocupações sobre as prioridades da empresa e a negligência da investigação em segurança ressoam em mim, pois acredito que o desenvolvimento de sistemas avançados de IA acarreta riscos imensos que precisam de ser abordados de forma proactiva.


Jan Leike, que ocupa o cargo de chefe de alinhamento na OpenAI e lidera a equipe de ‘Superalignment’, decidiu se separar da empresa. Sua saída foi motivada por preocupações sobre a direção da OpenAI, que ele acredita estar cada vez mais voltada para o desenvolvimento de produtos em detrimento da priorização da segurança da IA.

Em 17 de maio, Leike fez uma declaração pública de sua saída da OpenAI por meio de uma sequência de postagens no site de mídia social X, anteriormente conhecido como Twitter. Ele expressou a sua convicção de que a liderança da OpenAI tinha errado na selecção das áreas de foco principal e instou-os a dar maior importância à segurança e à prontidão à medida que a inteligência artificial geral (AGI) progride.

Preocupações de segurança e divergências internas de Jan Leike

Leike, que trabalhou na OpenAI por aproximadamente três anos, levantou preocupações em suas postagens sobre os aspectos negligenciados da segurança da IA ​​dentro da organização. Ele enfatizou que o foco na criação de “produtos atraentes” desviava a atenção das medidas essenciais de segurança. Especificamente, ele expressou preocupações sobre a distribuição de recursos e solicitou assistência para adquirir capacidade computacional suficiente para conduzir pesquisas críticas de segurança.

Construir máquinas mais inteligentes que as humanas é uma tarefa inerentemente perigosa.

A OpenAI está assumindo uma enorme responsabilidade em nome de toda a humanidade.

— Jan Leike (@janleike) 17 de maio de 2024

“Leike observou que criar máquinas mais inteligentes que os humanos envolve riscos inerentes, implicando uma responsabilidade significativa por parte da OpenAI.”

Como um investidor criptográfico que acompanha de perto os desenvolvimentos da OpenAI, notei dois eventos significativos acontecendo na mesma época. Primeiro, Ilya Sutskever, uma figura proeminente na OpenAI como colíder da equipe de ‘Superalinhamento’ e cientista-chefe, anunciou sua renúncia alguns dias antes. Sua saída foi digna de nota porque ele foi cofundador da OpenAI e contribuiu para projetos de pesquisa inovadores como o ChatGPT.

Dissolução da Equipe de Superalinhamento

Após a recente onda de saídas, a OpenAI anunciou que iria desmantelar a equipe “Superalignment”. Em vez disso, as suas responsabilidades serão assimiladas a outras iniciativas de investigação em curso dentro da organização. A Bloomberg informou que esta mudança é uma consequência do processo de reestruturação interna que começou durante a crise de governação em Novembro de 2023, quando o CEO Sam Altman foi temporariamente demitido e o Presidente Greg Brockman renunciou ao seu cargo de presidente.

A equipa “Superalignment”, criada para enfrentar as ameaças existenciais representadas por sofisticados sistemas de inteligência artificial, concentrou-se na concepção de métodos para orientar e gerir a IA superinteligente. Os seus esforços foram considerados cruciais na preparação de abordagens para as próximas gerações de modelos avançados de IA.

Apesar da dissolução da equipa, a OpenAI garante que as investigações sobre os riscos de IA a longo prazo persistirão, com John Schulman a supervisionar esta iniciativa e a gerir uma equipa separada responsável por refinar os modelos de IA pós-formação.

Trajetória atual e perspectivas da OpenAI

As saídas de Leike e Sutskever, juntamente com a dissolução da equipa “Superalinhamento”, suscitaram intensa revisão e reflexão na OpenAI em relação à segurança e governação da IA. Isto ocorre após um prolongado período de contemplação e disputa, particularmente após a demissão inicial de Sam Altman e subsequente reintegração.

As mudanças recentes da OpenAI e o lançamento de novos modelos sugerem uma potencial falta de priorização de segurança à medida que avançam e implementam tecnologias avançadas de IA. Seu mais recente modelo multimodal, GPT-4o, apresenta impressionantes habilidades de interação humana. No entanto, este progresso também sublinha preocupações éticas, como a invasão de privacidade, a manipulação emocional e as ameaças à segurança cibernética.

Como um investidor dedicado em criptografia e seguidor dos avanços em inteligência artificial (IA), quero compartilhar minha perspectiva sobre o foco inabalável da OpenAI em meio ao burburinho contínuo. Apesar de toda a comoção, a OpenAI continua comprometida em alcançar o seu objetivo principal: criar Inteligência Geral Artificial (AGI) de forma segura e benéfica para a humanidade.

“Estou profundamente grato pela valiosa contribuição de @janleike para a pesquisa da OpenAI sobre alinhamento e segurança, e estou consternado por ele estar partindo. Ainda há muito trabalho pela frente, mas continuamos comprometidos em levá-lo até o fim. Eu’ Compartilharei uma mensagem mais detalhada em breve.”

Binance pressiona por SHIB, USTC, AGIX Liquidez e impulso comercial

2024-05-17 23:28