Ex-cientista da OpenAI Sutskever lança SSI para segurança de IA

Oi galera, prontos para mergulhar no mundo louco das notícias de cripto? Junte-se ao nosso canal do Telegram onde deciframos os mistérios da blockchain e rimos das mudanças de humor imprevisíveis do Bitcoin. É como uma novela, mas com mais drama descentralizado! Não fique de fora, venha com a gente agora e vamos aproveitar a montanha-russa das criptos juntos! 💰🎢

Junte-se ao Telegram


Como um investidor experiente em criptografia e entusiasta de tecnologia com grande interesse na intersecção de inteligência artificial (IA) e blockchain, estou particularmente intrigado com o recente anúncio de Ilya Sutskever, Daniel Levy e Daniel Gross sobre sua nova empresa, Safe Superintelligence, (SSI). O seu compromisso em desenvolver simultaneamente a segurança e as capacidades da IA ​​é uma lufada de ar fresco bem-vinda num cenário cada vez mais complexo e arriscado.


Ilya Sutskever, anteriormente diretor científico da OpenAI, e seus colegas Daniel Levy, ex-engenheiro da OpenAI, e o investidor Daniel Gross, estabeleceram a Safe Superintelligence, Inc.

Com sede em Palo Alto e Tel Aviv, a SSI está empenhada em impulsionar a inovação em inteligência artificial (IA), com forte ênfase na priorização da segurança em todos os seus empreendimentos. Os fundadores da empresa sublinham a importância deste foco singular na segurança, garantindo que os avanços não sejam influenciados por pressões comerciais de curto prazo.

Estou começando uma nova empresa:

— Ilya Sutskever (@ilyasut) 19 de junho de 2024

Ilya Sutskever expressou que ter uma concentração única nos permite evitar distrações de gestão e interrupções do ciclo do produto. Além disso, nossa estrutura de negócios garante que a segurança e o avanço permaneçam protegidos das pressões do mercado de curto prazo.

Em 14 de maio, Sutskever se separou da OpenAI após seu envolvimento na rescisão do mandato do CEO Sam Altman e sua renúncia do conselho. Pouco tempo depois, Daniel Levy também saiu da OpenAI.

A dupla fazia parte da unidade Superalignment da OpenAI, criada em julho de 2023 com a missão de gerenciar sistemas artificialmente inteligentes que superam a inteligência humana, chamada inteligência artificial geral (AGI). Infelizmente, a OpenAI dissolveu esta equipe após a saída de Sutskever e de outros pesquisadores.

Vitalik Buterin, um dos cofundadores da Ethereum, considera a Inteligência Geral Artificial (AGI) potencialmente perigosa, mas acredita que o perigo é compensado pelos riscos da ganância corporativa e do uso indevido militar. Entretanto, aproximadamente 2.600 líderes da indústria tecnológica, incluindo Elon Musk, CEO da Tesla, e Steve Wozniak, cofundador da Apple, defendem uma interrupção de meio ano no desenvolvimento da IA ​​para avaliar os seus riscos significativos.

Como um investidor criptográfico responsável, valorizo ​​os esforços das empresas que priorizam a segurança no desenvolvimento de capacidades de IA acima de tudo. Este compromisso com considerações éticas no avanço das tecnologias de IA é admirável e essencial para o futuro da nossa indústria.

2024-06-20 06:44