UE critica ChatGPT por não cumprir os padrões GDPR

Oi galera, prontos para mergulhar no mundo louco das notícias de cripto? Junte-se ao nosso canal do Telegram onde deciframos os mistérios da blockchain e rimos das mudanças de humor imprevisíveis do Bitcoin. É como uma novela, mas com mais drama descentralizado! Não fique de fora, venha com a gente agora e vamos aproveitar a montanha-russa das criptos juntos! 💰🎢

Junte-se ao Telegram


Como pesquisador com experiência em privacidade de dados e inteligência artificial, acredito firmemente que o escrutínio do modelo ChatGPT da OpenAI pelo Conselho Europeu de Proteção de Dados (EDPB) é um passo essencial para garantir que os sistemas avançados de IA cumpram regulamentos rigorosos de proteção de dados, como o General Data Regulamento de Proteção (GDPR).


Como pesquisador focado em regulamentações de privacidade de dados, gostaria de compartilhar que o Conselho Europeu de Proteção de Dados (EDPB), atuando como fiscalizador do GDPR, revelou recentemente um relatório de progresso de seu “grupo de trabalho GPT”. O objetivo principal deste grupo é avaliar a adesão da OpenAI ao Regulamento Geral de Proteção de Dados da UE (GDPR) no que diz respeito ao seu popular chatbot, ChatGPT.

Apesar de alguns progressos realizados na abordagem desta questão em diferentes regiões e da implementação de inúmeras iniciativas para aumentar a transparência, o Comité Europeu para a Proteção de Dados (EDPB) determinou que estes esforços não satisfazem plenamente as normas do RGPD.

Como investigador que examina as preocupações do Comité Europeu para a Proteção de Dados (EDPB), posso dizer que o EDPB está particularmente focado em garantir resultados de alta qualidade a partir de modelos como o ChatGPT. O relatório traz à luz algumas conclusões preocupantes: o modelo por vezes gera informações tendenciosas ou fabricadas. Esta questão representa um risco significativo, uma vez que os utilizadores podem aceitar involuntariamente estas imprecisões como factos autênticos.

Depois que a agência italiana de proteção de dados identificou violações das leis de proteção de dados italianas e da UE por parte do ChatGPT em janeiro de 2024, este exame segue.

Como pesquisador que estuda regulamentações de proteção de dados, me deparei com a posição do Conselho Europeu de Proteção de Dados (EDPB) sobre o modelo ChatGPT da OpenAI. Apesar do seu enorme tamanho, ostentando milhares de milhões de pontos de dados e aproximadamente um bilião de parâmetros, o EDPB enfatizou que isto não isenta a OpenAI das suas obrigações do GDPR. Afirmaram inequivocamente que nenhuma organização pode empregar a complexidade técnica como justificativa para negligenciar estes requisitos.

Como analista, eu diria desta forma: notei que a OpenAI não partilhou planos específicos para superar os desafios que enfrentam no cumprimento dos regulamentos europeus, particularmente devido a obstáculos técnicos significativos.

Considerando o último relatório do EDPB, é importante enfatizar a importância de cumprir rigorosamente a precisão dos dados e os regulamentos de privacidade quando se trata de desenvolver um sistema complexo de IA como o ChatGPT, apesar de enfrentar desafios técnicos significativos.

2024-05-25 02:49