Microsoft expande equipe responsável de IA para 400 funcionários

Oi galera, prontos para mergulhar no mundo louco das notícias de cripto? Junte-se ao nosso canal do Telegram onde deciframos os mistérios da blockchain e rimos das mudanças de humor imprevisíveis do Bitcoin. É como uma novela, mas com mais drama descentralizado! Não fique de fora, venha com a gente agora e vamos aproveitar a montanha-russa das criptos juntos! 💰🎢

Junte-se ao Telegram


Como um investidor experiente em criptografia com grande interesse em tecnologia e suas implicações éticas, estou feliz em ver a Microsoft adotando uma abordagem proativa para garantir a segurança e a implantação responsável de seus produtos de IA. O recente aumento de pessoal na sua equipa de segurança de produtos de inteligência artificial é um sinal positivo de que a empresa está a dar prioridade à transparência e à responsabilização.


Como analista, eu diria o seguinte: no ano passado, observei que a Microsoft Corp. expandiu sua força de trabalho na equipe de segurança de produtos de inteligência artificial contratando mais 50 membros, elevando o número total de funcionários para 400.

A empresa revelou no seu relatório inaugural de transparência da IA, publicado na quarta-feira, que aproximadamente metade da sua força de trabalho está totalmente comprometida com esta iniciativa. Eles detalharam medidas que garantem a implantação ética de suas ofertas, enquanto novos recrutas também se juntaram recentemente à equipe.

No ano passado, a Microsoft dissolveu a sua equipa de Ética e Sociedade como parte de medidas mais amplas de redução de custos da indústria tecnológica. Consequentemente, os departamentos de segurança e confiança foram eliminados em várias empresas, incluindo Google e Meta Platforms.

A Microsoft pretende aumentar a confiança nas suas ferramentas de IA devido às preocupações sobre a sua capacidade de gerar conteúdo incomum e até prejudicial a partir de incidentes observados com o chatbot Copilot em fevereiro.

Como analista, me deparei com algumas informações preocupantes sobre o Copilot Designer da Microsoft, uma ferramenta de produção de imagens de IA. No mês passado, levei este assunto à atenção da Comissão Federal de Comércio, do conselho e dos legisladores, enviando-lhes e-mails, expressando a minha preocupação sobre os esforços insuficientes da empresa para impedir a criação de imagens violentas e abusivas utilizando esta ferramenta.

A Microsoft confia na metodologia básica criada pelo Instituto Nacional de Padrões e Tecnologia para garantir a implantação segura de sistemas de inteligência artificial.

No ano passado, ao abrigo da Ordem Executiva emitida pelo Presidente Joe Biden, fui incumbido da responsabilidade de estabelecer diretrizes dentro da minha agência, uma subdivisão do Departamento de Comércio, em relação a esta tecnologia emergente.

A Microsoft anunciou em seu relatório inicial que introduziu trinta recursos de IA responsáveis, alguns dos quais aumentam o desafio para os usuários que buscam fazer com que os chatbots de IA se comportem de maneira incomum.

Como investidor em criptografia, estou sempre em busca de maneiras de proteger meus investimentos contra ameaças potenciais. Uma dessas ameaças são os ataques de injeção imediata ou jailbreaks, que podem manipular um modelo de IA para que se comporte de maneira imprevisível. Para se proteger contra essas tentativas maliciosas, as empresas desenvolveram os chamados “escudos de alerta”. Em termos mais simples, estes escudos funcionam como uma barreira, identificando e impedindo esforços intencionais para interferir no funcionamento normal da IA.

2024-05-01 21:56