Ferramentas de código aberto nivelam o campo de atuação para pequenas empresas de IA, afirma o proponente da IA ​​descentralizada

Oi galera, prontos para mergulhar no mundo louco das notícias de cripto? Junte-se ao nosso canal do Telegram onde deciframos os mistérios da blockchain e rimos das mudanças de humor imprevisíveis do Bitcoin. É como uma novela, mas com mais drama descentralizado! Não fique de fora, venha com a gente agora e vamos aproveitar a montanha-russa das criptos juntos! 💰🎢

Junte-se ao Telegram


Como analista com vasta experiência na indústria de inteligência artificial (IA), acredito firmemente que a transparência e as considerações éticas são essenciais para o crescimento sustentável deste campo. O processo de grande repercussão contra a Lovo, que utilizou as vozes dos indivíduos sem o seu consentimento, é um lembrete claro das potenciais consequências quando as empresas desrespeitam os direitos de privacidade e os padrões éticos.


A fim de evitar potenciais processos judiciais e disputas sobre a utilização de dados adquiridos ilegalmente no treino dos seus modelos de IA, as empresas de IA são aconselhadas por Alberto Fernandez a utilizar dados acessíveis ao público ou de código aberto. Fernandez, um defensor da IA ​​descentralizada e representante europeu do Ecossistema Qubic, insta estas empresas a tomarem medidas que abordem as preocupações com a privacidade, anonimizando e agregando os dados que utilizam.

O custo de treinamento de modelos de IA apresenta uma barreira de entrada significativa

No caso de maio envolvendo a startup de IA Lovo sendo processada por usar as vozes de dois atores sem permissão, Fernandez concordou com os acusadores que isso era uma violação de privacidade. Afirmou ainda que as ações da empresa iam contra as diretrizes éticas ao desconsiderar o controle dos atores sobre suas próprias imagens. O representante do Qubic propõe que obter o consentimento explícito dos indivíduos em questão poderia ter evitado quaisquer potenciais repercussões legais para Lovo.

Na TopMob, Fernandez reconheceu a precisão das descobertas do relatório do Índice de IA da Universidade de Stanford sobre os custos crescentes do desenvolvimento de modelos de IA de alto nível. No entanto, enfatizou que as empresas mais pequenas com menos recursos financeiros poderiam prosperar especializando-se em nichos de mercado e utilizando ferramentas de código aberto.

No que diz respeito ao papel que os reguladores desempenham na tecnologia de IA, Fernandez sublinhou a importância de estabelecer directrizes inequívocas. Ele defendeu avaliações de rotina e imposição de consequências pelo desrespeito a essas regulamentações. Além disso, sublinhou a necessidade de cooperação global para resolver questões transnacionais e aumentar a compreensão da utilização segura da IA ​​através de programas de ensino.

Avançando nas suas respostas, Fernandez apresentou as suas perspectivas sobre os desenvolvimentos futuros no sector da IA ​​durante os próximos cinco anos, ao mesmo tempo que abordou a importância de estimular o progresso e garantir a segurança do público em geral.

Em maio passado, um casal entrou com uma ação legal contra a Lovo, uma startup de IA com sede em Berkeley, alegando que a empresa havia usado suas vozes de forma indevida. Este incidente sublinha a tensão crescente entre criadores de conteúdos e empresas tecnológicas acusadas de recolher grandes quantidades de dados para alimentar os seus sistemas de inteligência artificial, sem obter consentimento. Na sua opinião, a Lovo tinha justificação para incorporar as vozes dos indivíduos na formação dos seus sistemas sem aprovação prévia? Que medidas potenciais a empresa poderia ter empregado para evitar possíveis litígios?

Alberto Fernandez (AF): É essencial que a LOVO respeite a privacidade dos indivíduos, obtendo o seu consentimento antes de usar as suas vozes para treinamento do sistema. Esta abordagem defende padrões éticos, cumpre as leis de propriedade intelectual e salvaguarda a autonomia dos indivíduos. Para minimizar possíveis problemas legais, a LOVO poderia ter empregado alternativas como dados de voz disponíveis publicamente, geração de voz sintética ou anonimização e agregação de dados de voz existentes.

No avanço tecnológico atual, o gerenciamento de dados apresenta complexidades que giram principalmente em torno das restrições das estruturas regulatórias atuais. Estes regulamentos protegem o público de riscos conhecidos, mas podem dificultar a inovação. Para encontrar um equilíbrio, as autoridades poderiam:

Para encontrar um equilíbrio entre a salvaguarda do público e o incentivo à inovação na gestão de dados, é crucial estabelecer um quadro regulamentar que seja ao mesmo tempo adaptável e reativo. Um método eficaz é implementar uma estratégia orientada para o risco, onde as regulamentações são ajustadas de acordo com os riscos potenciais associados a diferentes tipos de dados e tecnologias. Esta abordagem garante uma segurança rigorosa para informações sensíveis, ao mesmo tempo que oferece mais margem de manobra para inovações menos perigosas.

Como investigador que estuda quadros regulamentares para tecnologias emergentes, defenderia a implementação de sandboxes regulamentares como um meio de promover a inovação, mantendo ao mesmo tempo a segurança. Estes ambientes controlados permitem que novas tecnologias sejam testadas sob supervisão regulamentar, proporcionando informações e experiências valiosas que podem informar regulamentações futuras. Além disso, canais de comunicação abertos entre reguladores, partes interessadas da indústria e o público são essenciais para garantir que as regulamentações em evolução permanecem eficazes e respondem aos avanços tecnológicos, evitando assim obstáculos indevidos ao progresso.

As complexidades regulamentares são apenas um aspecto dos muitos obstáculos que o sector da IA ​​deve superar. Um estudo recente da Universidade de Stanford destacou que as despesas significativas envolvidas no treinamento de modelos de IA representam uma barreira para jogadores não estabelecidos. Você concorda com esta avaliação da pesquisa de Stanford? Em caso afirmativo, que estratégias você acredita que as empresas iniciantes de IA podem empregar para contornar esse desafio financeiro e prosperar em vez de desaparecer?

De acordo com as conclusões da Universidade de Stanford, reconheço o obstáculo financeiro substancial para a formação de modelos de IA fora das grandes indústrias. Para superar este desafio, a utilização de plataformas de IA baseadas na nuvem e a união de forças com instituições acadêmicas e consórcios oferecem soluções econômicas. Além disso, visar nichos de mercado e adotar ferramentas de código aberto pode expandir as oportunidades para as pequenas empresas no setor da IA, permitindo-lhes avançar e prosperar competitivamente.

Como representante do ecossistema europeu da Qubic, uma cadeia de Camada 1 especializada em inteligência artificial (IA), estou empenhado em promover o desenvolvimento ético da IA. A nossa equipa reconhece a importância de enfrentar os desafios que a indústria da IA ​​enfrenta em termos de ética e transparência.

Especialista: Como fundador da Qubic e defensor do desenvolvimento ético de IA, estou comprometido em promover a transparência, proteger a privacidade dos dados e expandir o acesso a tecnologias avançadas de IA para todos. Ao abordar os obstáculos da indústria através do fornecimento de infraestruturas expansivas e seguras, permitindo a gestão descentralizada de dados e implementando estruturas de governação rigorosas, a Qubic dá prioridade a padrões éticos na inovação da IA.

Nossas ofertas permitem que os desenvolvedores criem projetos de IA inovadores que aderem às diretrizes éticas, promovendo a progressão de tecnologias de IA moralmente sólidas. Além disso, estendemos recentemente um convite à UNESCO para a nossa mais recente conferência sobre IA, enfatizando o nosso foco no desenvolvimento ético da IA ​​e na adesão aos padrões éticos internacionais, garantindo, em última análise, que a tecnologia da IA ​​sirva a humanidade de uma forma responsável.

“Como podem os órgãos reguladores em diferentes regiões proteger os cidadãos de serem aproveitados por atores fraudulentos que afirmam fornecer serviços de IA?”

Como investigador na área da inteligência artificial (IA), acredito que os organismos reguladores têm um papel crítico na proteção do público, estabelecendo e aplicando padrões claros para os serviços de IA. Isto inclui a realização de auditorias regulares para garantir a conformidade, a imposição de sanções em caso de incumprimento e a promoção da transparência. Além disso, a colaboração internacional entre as autoridades reguladoras é essencial para enfrentar os desafios transfronteiriços na implementação da IA. Por último, a sensibilização do público sobre práticas seguras de IA pode ser melhorada através de iniciativas educativas.

Como pesquisador envolvido no desenvolvimento do Qubic, posso explicar que em vez de confiar nos mecanismos tradicionais de prova de trabalho ou de consenso de prova de participação, optamos pela Prova de Trabalho Útil (uPoW). A justificativa por trás desta escolha decorre do nosso objetivo de tornar a tecnologia blockchain mais benéfica e produtiva para a comunidade.

Como investidor em criptografia, eu descreveria desta forma: Qubic opera usando dois mecanismos de consenso diferentes. O primeiro é baseado em quórum, derivado do conceito de Nick Szabo, que necessita de um certo número de aprovações para validar uma transação. Isso contrasta com nosso algoritmo Useful Proof of Work (uPoW), que canaliza o poder computacional para tarefas práticas para melhorar a eficiência e o uso de recursos. Ao fundir a mineração e o trabalho produtivo através do uPoW, a rede torna-se mais frutífera e sustentável, preservando ao mesmo tempo uma segurança robusta através do consenso baseado em quórum.

BCN: Por último, onde você vê a indústria de IA daqui a cinco anos?

Nos próximos cinco anos, prevejo que o sector da IA ​​registe progressos substanciais no desenvolvimento de tecnologias mais éticas e responsáveis. Este avanço será alimentado por numerosos avanços tecnológicos. O objetivo é tornar a IA sofisticada acessível a todos, ao mesmo tempo que respeita as diretrizes éticas através de métodos transparentes e responsáveis. O papel da IA ​​na vida quotidiana irá expandir-se dramaticamente, levando a um aumento da eficiência em vários setores e proporcionando experiências de utilizador personalizadas que são mais envolventes do que nunca.

Além disso, espera-se que ocorram avanços significativos na Inteligência Artificial Geral (AGI) durante este período. O trabalho colaborativo da comunidade de IA procura criar um futuro onde a IA tenha um impacto positivo na sociedade, impulsionando a inovação e promovendo o crescimento tecnológico responsável.

2024-07-13 09:57