O CTO da Ripple, David Schwartz, rejeita o processo da CharacterAI

Oi galera, prontos para mergulhar no mundo louco das notícias de cripto? Junte-se ao nosso canal do Telegram onde deciframos os mistérios da blockchain e rimos das mudanças de humor imprevisíveis do Bitcoin. É como uma novela, mas com mais drama descentralizado! Não fique de fora, venha com a gente agora e vamos aproveitar a montanha-russa das criptos juntos! 💰🎢

Junte-se ao Telegram


Como analista com formação em direito e tecnologia, fico profundamente intrigado com esta batalha legal em curso entre Character.AI e a família de Sewell Setzer III. O argumento de David Schwartz sobre a liberdade de expressão é de facto convincente, traçando paralelos com os pânicos morais do passado relativamente às novas formas de comunicação social. A sua experiência de vida, trabalhando na indústria tecnológica, provavelmente o expôs a várias controvérsias em torno de tecnologias inovadoras, tornando-o bem equipado para resolver tais questões.

David Schwartz, diretor de tecnologia da Ripple, rejeitou o caso contra Character.AI, afirmando que ele não tem substância sob a lei dos EUA. Ele compartilhou sua opinião nas redes sociais, esclarecendo que embora não apoie a responsabilidade ética da Character.AI, os argumentos jurídicos apresentados contra a empresa apresentam falhas.

Argumento do CTO da Ripple, David Schwartz, sobre liberdade de expressão 

Como pesquisador, tomei nota recentemente da postagem de David Schwartz no X (anteriormente conhecido como Twitter), onde ele enfatizou que as ações da Character.AI são salvaguardadas pela Primeira Emenda. O seu argumento era que o conteúdo expressivo gerado pela sua plataforma de chatbot é protegido, a menos que se enquadre numa das exceções bem definidas de discurso desprotegido – como incitamento ou ameaças explícitas.

Schwartz argumenta que a base da alegação do processo é a alegação de que a Character.AI agiu de forma descuidada ao criar sua plataforma de produção de discurso, de acordo com a denúncia.

Ele declarou: “Qualquer argumento de que o conteúdo expressivo do discurso protegido é imprudente, perigoso ou ‘defeituoso’ é totalmente incompatível com a liberdade de expressão.”

Schwartz comparou a situação aos pânicos morais anteriores sobre novas formas de mídia, sugerindo que o desafio legal contra Character.AI reflete controvérsias passadas envolvendo videogames, histórias em quadrinhos e outros conteúdos expressivos. Ele enfatizou que regulamentar a forma como o discurso é escolhido entraria em conflito com os direitos constitucionais.

O processo Character.AI e suas reivindicações

O processo iniciado pela mãe de Sewell Setzer III afirma que Character.AI é responsável por negligência, homicídio culposo, práticas comerciais enganosas e responsabilidade pelo produto. Afirma que a plataforma não é segura, oferecendo precauções de segurança inadequadas, apesar de ser publicitada a utilizadores jovens.

O processo também faz referência aos chatbots da empresa, que simulam personagens de mídias populares, incluindo programas de TV como Game of Thrones. Setzer teria interagido extensivamente com esses chatbots antes de sua morte.

Na ação judicial, são os fundadores da Character.AI, Noam Shazeer e Daniel De Freitas, juntamente com o Google que assumiu a empresa em agosto, que estão sendo citados como réus. Os advogados do demandante argumentam que a criação pela plataforma de personagens de IA semelhantes a humanos e chatbots que fornecem “psicoterapia não licenciada” potencialmente desempenhou um papel na trágica morte de Setzer.

A empresa respondeu com atualizações em seus protocolos de segurança, incluindo novos filtros de conteúdo baseados em idade e detecção aprimorada de interações prejudiciais do usuário.

Resposta e mudanças de política da Character.AI

Em resposta aos recentes eventos e ações legais, Character.AI fez melhorias para aumentar a segurança do usuário. Esses ajustes envolvem a revisão do conteúdo disponível para menores, a exibição de um lembrete pop-up de que os chatbots não são pessoas reais e a implementação de um sistema de notificação para uso estendido da plataforma pelos usuários. Segundo a diretora de comunicação da empresa, Chelsea Harrison, isso foi afirmado publicamente.

Estamos profundamente tristes em anunciar o falecimento de um de nossos valiosos usuários. Nossos pensamentos e sinceras condolências vão para sua família durante este momento difícil.

Harrison elaborou que o sistema da plataforma agora é mais hábil na identificação de informações relacionadas a automutilação ou pensamentos suicidas, redirecionando os usuários para a National Suicide Prevention Lifeline. No entanto, o processo judicial em andamento persiste, já que a Character.AI insiste que permanece firme em sua dedicação à segurança do usuário.

Simultaneamente, foi revelado que a Fundação Aptos está se unindo à Flock IO em uma joint venture para criar ferramentas de IA. Curiosamente, eles utilizarão a linguagem de programação Move, que foi inicialmente criada pela Meta para o projeto Diem, mas agora está sendo adaptada para vários usos de blockchain.

2024-10-27 01:08