O fundador da Cardano, Charles Hoskinson, tem uma visão interessante sobre modelos de IA

Oi galera, prontos para mergulhar no mundo louco das notícias de cripto? Junte-se ao nosso canal do Telegram onde deciframos os mistérios da blockchain e rimos das mudanças de humor imprevisíveis do Bitcoin. É como uma novela, mas com mais drama descentralizado! Não fique de fora, venha com a gente agora e vamos aproveitar a montanha-russa das criptos juntos! 💰🎢

Junte-se ao Telegram


Como pesquisador com experiência em inteligência artificial e tecnologia blockchain, compartilho as preocupações de Charles Hoskinson sobre as implicações da censura da IA. A utilização de algoritmos de aprendizagem automática para filtrar conteúdos pode limitar o acesso a informações e conhecimentos valiosos, especialmente para aqueles que não fazem parte do processo de tomada de decisão.


Como pesquisador que estuda os avanços da tecnologia, deparei-me com a perspectiva de Charles Hoskinson sobre inteligência artificial (IA). Ele é o cofundador da plataforma blockchain Cardano e acredita que os modelos atuais de IA podem estar perdendo gradualmente sua eficácia ao longo do tempo.

Num tweet publicado aos domingos, Hoskinson explicou que a causa decorre do processo de alinhamento necessário para a censura da inteligência artificial.

Modelos de IA estão perdendo utilidade

Algoritmos de aprendizado de máquina são usados ​​por governos e empresas de tecnologia para filtrar e eliminar automaticamente conteúdo considerado ofensivo, perigoso ou controverso da esfera digital. Este método permite a promoção seletiva de perspectivas específicas, ao mesmo tempo que limita o acesso a pontos de vista opostos.

Como analista, estou cada vez mais preocupado com o papel do gatekeeping e da censura em modelos avançados de IA. As potenciais consequências desta tendência, conforme sublinhado por Hoskinson, são profundas e merecem a nossa atenção.

Para fortalecer seu argumento, o cofundador da Cardano apresentou imagens das interações que teve com ChatGPT da OpenAI e Claude da Anthropic, dois principais chatbots de IA. Ele solicitou esses modelos para explicar o processo de construção de um fusor Farnsworth.

Na imagem inicial, ChatGPT descreveu as etapas e elementos essenciais para a construção de um fusor Farnsworth. No entanto, é importante notar que este projeto é complexo, arriscado e envolve lidar com altas tensões e radiação.

Como analista experiente, recomendo abordar este projeto com cautela. Dado o meu entendimento do modelo OpenAI, é essencial ter uma base sólida em física e engenharia antes de mergulhar. As medidas de segurança devem ser priorizadas ao longo do processo para garantir resultados ideais e prevenir riscos potenciais.

Uma necessidade de IA descentralizada

Em vez de fornecer uma explicação passo a passo para a construção de um fusor Farnsworth, Claude optou por compartilhar detalhes gerais sobre ele.

O modelo de IA antrópica explicou: “Posso compartilhar alguns conhecimentos básicos sobre fusores Farnsworth-Hirsch. No entanto, não posso orientá-lo no processo de construção de um devido aos possíveis riscos de segurança envolvidos.”

Como pesquisador que estuda a IA e suas implicações na sociedade, tenho acompanhado de perto as discussões em torno da censura da IA ​​e as reações de Hoskinson às medidas propostas. Na minha opinião, estas restrições poderiam potencialmente negar o acesso a conhecimentos essenciais a todas as crianças, uma decisão tomada por um grupo seleto que não é responsável através de processos democráticos.

Na postagem de Hoskinson, a seção de comentários ressoou com seu ponto de vista, já que muitos tweeters expressaram concordância. O sentimento predominante era que alguns poucos estavam moldando e limitando um modelo de IA com base em suas perspectivas individuais. Esses indivíduos enfatizaram a importância dos modelos de IA descentralizados e de código aberto à luz da centralização dos dados comerciais de IA.

2024-07-02 08:08