
Meta automatiza avaliações de risco em produtos com IA
Meta planeja automatizar avaliações de risco em produtos com IA
Um sistema de inteligência artificial pode em breve assumir a responsabilidade de avaliar potenciais danos e riscos de privacidade em até 90% das atualizações dos aplicativos da Meta, como Instagram e WhatsApp. A informação, baseada em documentos internos, revela uma mudança significativa na forma como a empresa gerencia a segurança de seus produtos.
De acordo com relatos, um acordo de 2012 entre o Facebook (atual Meta) e a Federal Trade Commission (FTC) exige que a empresa realize revisões de privacidade antes de lançar novas funcionalidades. Até então, essas análises eram feitas majoritariamente por avaliadores humanos.
Com o novo sistema, as equipes de produto preencherão um questionário sobre suas atualizações e receberão uma decisão instantânea gerada por IA, contendo possíveis riscos e requisitos necessários antes da implementação. A Meta afirma que essa abordagem acelerará o processo de desenvolvimento, mas especialistas alertam para possíveis falhas.
Um ex-executivo da empresa destacou que a automação pode aumentar os riscos, já que “externalidades negativas de mudanças nos produtos têm menos chances de serem identificadas antes de causarem problemas”. A Meta, no entanto, garantiu que apenas decisões de baixo risco serão automatizadas, mantendo a revisão humana para casos complexos.
Impactos e preocupações
A adoção de IA para avaliações de risco levanta questões sobre a eficácia da tecnologia em identificar vazamentos de dados, discurso de ódio e outros problemas comuns em plataformas sociais. Apesar da promessa de maior agilidade, críticos argumentam que sistemas automatizados podem não capturar nuances críticas.
A Meta não divulgou prazos exatos para a implementação completa do sistema, mas confirmou que a transição já está em andamento. Enquanto isso, reguladores e grupos de defesa do consumidor acompanham de perto as implicações dessa mudança.
Por InfoRadar