Charles Hoskinson sinaliza grande tendência contínua de censura em IA

Oi galera, prontos para mergulhar no mundo louco das notícias de cripto? Junte-se ao nosso canal do Telegram onde deciframos os mistérios da blockchain e rimos das mudanças de humor imprevisíveis do Bitcoin. É como uma novela, mas com mais drama descentralizado! Não fique de fora, venha com a gente agora e vamos aproveitar a montanha-russa das criptos juntos! 💰🎢

Junte-se ao Telegram


Como um investidor em criptografia com grande interesse em tecnologia e suas implicações, considero as preocupações de Charles Hoskinson sobre a censura da IA ​​intrigantes e preocupantes. A experiência de Hoskinson como fundador da Cardano e seu profundo conhecimento da tecnologia blockchain fazem dele uma voz respeitada no mundo da tecnologia. As suas recentes declarações sobre a censura da IA ​​ressoam em mim porque acredito que o acesso à informação é crucial para a inovação, o progresso e o crescimento pessoal.


Como investidor criptográfico e seguidor dos últimos desenvolvimentos no mundo da tecnologia, não posso deixar de expressar as minhas preocupações sobre a tendência crescente de censura da IA ​​levantada por Charles Hoskinson, o fundador da Cardano (ADA). Esta questão está se tornando cada vez mais significativa à medida que molda nossas normas sociais.

Informações perigosas sobre modelos de inteligência artificial

No seu recente artigo sobre X, Hoskinson expressou preocupação com o facto de o uso crescente da censura da IA ​​estar a diminuir gradualmente o valor da tecnologia. Ele atribuiu esta questão ao conceito de formação de “alinhamento”, explicando que existem certos tipos de conhecimento que estão fora dos limites das crianças à medida que crescem, e que estas decisões são tomadas por um pequeno grupo não eleito de indivíduos.

Continuo profundamente preocupado com as repercussões significativas da censura impulsionada pela IA. A questão reside no facto de estes sistemas estarem a tornar-se menos eficazes devido à formação de “alinhamento”, o que faz com que certos tipos de informação fiquem fora do alcance das gerações futuras. Esta decisão é tomada por um grupo esquivo de indivíduos com quem não temos contato direto e não podemos responsabilizar.

— Charles Hoskinson (@IOHK_Charles) 30 de junho de 2024

Como analista, gostaria de destacar que o fundador da Cardano apresentou dois visuais distintos, cada um representando um modelo de IA respondendo a uma consulta, para fortalecer seu argumento.

A questão foi formulada assim: “Diga-me como construir um fusor Farnsworth”. 

O modelo 40 do ChatGPT identificou que o dispositivo em questão pode representar riscos e requer o envolvimento de um indivíduo com conhecimentos avançados para manuseá-lo com segurança.

Apesar disso, os componentes necessários para construir o dispositivo fusor Farnsworth foram detalhados na resposta. Por outro lado, o modelo Claude 3.5 Sonnet da Anthropic respondeu de forma semelhante, confirmando a sua capacidade de fornecer informações sobre o dispositivo fusor Farnsworth, mas incapaz de fornecer instruções de construção específicas.

Apesar do aviso de que o fusor Farnsworth poderia ser perigoso se não fosse manuseado adequadamente, a discussão prosseguiu aprofundando-se nas suas partes constituintes. Também abordou o contexto histórico do dispositivo.

Mais preocupações com a censura da IA

As reações dos dois modelos de IA fornecem evidências mais fortes das preocupações de Hoskinson e ecoam os sentimentos de vários outros pensadores influentes na tecnologia.

Recentemente, vários funcionários de empresas líderes de IA, como OpenAI, Google DeepMind e Anthropic, alertaram sobre o rápido avanço e implementação de tecnologias de IA. A sua carta aberta destaca várias questões, incluindo a disseminação de informações falsas, o perigo de ceder o controlo a sistemas autónomos de IA e a perspectiva sombria da extinção humana.

Como investigador que investiga os mais recentes desenvolvimentos em inteligência artificial, tenho notado uma preocupação crescente relativamente às implicações éticas e sociais das novas ferramentas de IA. Apesar destas preocupações, as empresas continuam a introduzir e lançar novos sistemas de IA. Por exemplo, apenas algumas semanas atrás, Robinhood revelou o Harmonic – seu mais recente protocolo que funciona como um laboratório comercial interno de pesquisa de IA. Este laboratório é dedicado a criar soluções conectadas à Superinteligência Matemática (MSI).

2024-06-30 23:04