CEO da OpenAI pede desculpas pela cláusula de cancelamento de capital

Oi galera, prontos para mergulhar no mundo louco das notícias de cripto? Junte-se ao nosso canal do Telegram onde deciframos os mistérios da blockchain e rimos das mudanças de humor imprevisíveis do Bitcoin. É como uma novela, mas com mais drama descentralizado! Não fique de fora, venha com a gente agora e vamos aproveitar a montanha-russa das criptos juntos! 💰🎢

Junte-se ao Telegram


Como investidor em criptografia com experiência na indústria de tecnologia, acompanho de perto os desenvolvimentos na OpenAI devido ao seu impacto significativo na pesquisa e tecnologia de IA. A recente controvérsia em torno da cláusula de cancelamento de capital nos acordos de saída da OpenAI levantou preocupações entre ex-funcionários e observadores.


Como pesquisador que analisa os últimos desenvolvimentos na OpenAI, me deparei com alguns rumores em torno do recente discurso do CEO Sam Altman às preocupações dos funcionários em relação a uma cláusula controversa nos contratos de saída da empresa. Esta cláusula permite potencialmente que a OpenAI cancele o patrimônio adquirido após a rescisão sob certas circunstâncias.

A OpenAI, de acordo com Altman, nunca invocou esta disposição e garantiu que a aquisição de capital permanece inalterada por quaisquer acordos de separação ou não depreciação.

Esclarecimento da OpenAI sobre patrimônio adquirido

Como investidor em criptografia, eu expressaria desta forma: discordei veementemente da inclusão dessa cláusula específica nos documentos de saída anteriores. Foi um erro e deveria ter sido omitido.

Como pesquisador envolvido nas operações da OpenAI, reconheço o erro que ocorreu sob minha supervisão e assumo total responsabilidade por ele. Lamentavelmente, esta é uma ocasião rara em que me sinto mortificado. Infelizmente, eu não estava ciente do desenrolar da situação e agora reconheço que não cumpri minhas responsabilidades.

Como investidor em criptografia, eu reformularia a questão assim: garanti aos ex-funcionários que, se tivessem alguma dúvida em relação a esta cláusula, poderiam entrar em contato comigo pessoalmente para obter uma solução.

A cláusula de cancelamento de capital levantou preocupações sobre o uso pretendido e a potencial aplicação indevida entre muitos. Admitindo o erro, Altman revelou que a empresa modificou seus documentos habituais de partida um mês antes para resolver esses problemas.

Demissões de funcionários e preocupações de segurança

Após várias saídas, incluindo a de Jan Leike da OpenAI, onde liderou os esforços de alinhamento, Altman forneceu mais explicações. Leike, que anunciou sua renúncia em 17 de maio, citou uma maior ênfase no desenvolvimento de produtos em vez da segurança da IA ​​como um fator significativo em sua decisão.

em relação a informações recentes sobre como a openai lida com o patrimônio:

Em termos simples, nunca revertemos ou recuperamos o patrimônio líquido de ninguém e não o faremos, a menos que assinem um acordo de separação ou se recusem a concordar com um pacto de não depreciação. O conceito de “patrimônio adquirido” permanece inalterado.

havia…

— Sam Altman (@sama) 18 de maio de 2024

Ilya Sutskever, uma figura proeminente na pesquisa de IA e um dos membros fundadores da OpenAI, já havia deixado a empresa antes de seu indivíduo nomeado apresentar sua demissão.

As estratégias e prioridades internas da OpenAI atraíram um escrutínio significativo devido às recentes saídas dentro da organização. Os críticos argumentam que a OpenAI não deu atenção suficiente às preocupações relacionadas aos sistemas avançados de IA. Anteriormente, a OpenAI dissolveu a sua equipa de “Superalignment”, fundindo as suas funções com outras iniciativas de investigação em curso.

Compromisso da OpenAI com a segurança da IA

Como investidor em criptografia e observador interessado da indústria de tecnologia, percebi que a OpenAI, apesar de passar por uma reestruturação, continua dedicada a garantir a segurança da IA. O CEO, Sam Altman, e o presidente, Greg Brockman, enfatizaram a importância da pesquisa em andamento nesta área. Numa declaração recente, Brockman expressou gratidão aos funcionários que partiram e garantiu ao público que a OpenAI continuará a priorizar e a abordar as questões de segurança com grande rigor.

Brockman chamou a atenção para as iniciativas da OpenAI na abordagem dos potenciais perigos e benefícios da inteligência artificial geral, promovendo a supervisão global e liderando investigações sobre a segurança da IA.

Fico feliz que você aprecie as contribuições significativas de Jan para a OpenAI e garanto que seu impacto será sentido além de sua gestão aqui. Dada a curiosidade despertada pela sua saída, pensei que seria útil lançar alguma luz sobre a nossa direção estratégica mais ampla.

Primeiro, temos…

— Greg Brockman (@gdb) 18 de maio de 2024

Ele admitiu que a criação e liberação de Inteligência Geral Artificial (AGI) envolve obstáculos intrincados e desconhecidos, exigindo melhorias contínuas nos protocolos de segurança e supervisão.

Venezuela age duramente com a mineração de criptografia em meio à pressão energética

2024-05-19 04:24