Oi galera, prontos para mergulhar no mundo louco das notícias de cripto? Junte-se ao nosso canal do Telegram onde deciframos os mistérios da blockchain e rimos das mudanças de humor imprevisíveis do Bitcoin. É como uma novela, mas com mais drama descentralizado! Não fique de fora, venha com a gente agora e vamos aproveitar a montanha-russa das criptos juntos! 💰🎢
☞ Junte-se ao Telegram
Como um investidor experiente em criptografia e entusiasta de tecnologia com grande interesse na intersecção de inteligência artificial (IA) e blockchain, estou particularmente intrigado com o recente anúncio de Ilya Sutskever, Daniel Levy e Daniel Gross sobre sua nova empresa, Safe Superintelligence, (SSI). O seu compromisso em desenvolver simultaneamente a segurança e as capacidades da IA é uma lufada de ar fresco bem-vinda num cenário cada vez mais complexo e arriscado.
Ilya Sutskever, anteriormente diretor científico da OpenAI, e seus colegas Daniel Levy, ex-engenheiro da OpenAI, e o investidor Daniel Gross, estabeleceram a Safe Superintelligence, Inc.
Com sede em Palo Alto e Tel Aviv, a SSI está empenhada em impulsionar a inovação em inteligência artificial (IA), com forte ênfase na priorização da segurança em todos os seus empreendimentos. Os fundadores da empresa sublinham a importância deste foco singular na segurança, garantindo que os avanços não sejam influenciados por pressões comerciais de curto prazo.
Estou começando uma nova empresa:
— Ilya Sutskever (@ilyasut) 19 de junho de 2024
Ilya Sutskever expressou que ter uma concentração única nos permite evitar distrações de gestão e interrupções do ciclo do produto. Além disso, nossa estrutura de negócios garante que a segurança e o avanço permaneçam protegidos das pressões do mercado de curto prazo.
Em 14 de maio, Sutskever se separou da OpenAI após seu envolvimento na rescisão do mandato do CEO Sam Altman e sua renúncia do conselho. Pouco tempo depois, Daniel Levy também saiu da OpenAI.
A dupla fazia parte da unidade Superalignment da OpenAI, criada em julho de 2023 com a missão de gerenciar sistemas artificialmente inteligentes que superam a inteligência humana, chamada inteligência artificial geral (AGI). Infelizmente, a OpenAI dissolveu esta equipe após a saída de Sutskever e de outros pesquisadores.
Vitalik Buterin, um dos cofundadores da Ethereum, considera a Inteligência Geral Artificial (AGI) potencialmente perigosa, mas acredita que o perigo é compensado pelos riscos da ganância corporativa e do uso indevido militar. Entretanto, aproximadamente 2.600 líderes da indústria tecnológica, incluindo Elon Musk, CEO da Tesla, e Steve Wozniak, cofundador da Apple, defendem uma interrupção de meio ano no desenvolvimento da IA para avaliar os seus riscos significativos.
Como um investidor criptográfico responsável, valorizo os esforços das empresas que priorizam a segurança no desenvolvimento de capacidades de IA acima de tudo. Este compromisso com considerações éticas no avanço das tecnologias de IA é admirável e essencial para o futuro da nossa indústria.
- PYTH PREVISÃO. PYTH criptomoeda
- WLD PREVISÃO. WLD criptomoeda
- HIPPO PREVISÃO. HIPPO criptomoeda
- Christina Hall faz uma “viagem de garotas muito necessária” em meio ao divórcio de Josh Hall
- Google Pay, Amazon Pay e Phonepe Eye Entry, apoiado pelo Walmart, no programa de rupia digital do RBI
- LTO PREVISÃO. LTO criptomoeda
- Análise do preço da moeda Pepe: correção de 20% se aproxima em meio ao declínio do volume
- DRiP Haus, plataforma Solana Creator, se prepara para lançamento em julho no iOS e Android
- Polymarket contrata Nate Silver após apostas de US$ 265 milhões nas eleições
- ETFs Spot Bitcoin dos EUA registram entradas de US$ 45 milhões enquanto ETFs de Ether registram saídas de US$ 24 milhões
2024-06-20 06:44