Google, Openai, Roblox e Discord estão se agitando para fazer um bem coletivo para a sociedade, pois formavam recentemente uma nova organização sem fins lucrativos que visa melhorar a segurança infantil online.
A iniciativa é conhecida como Ferramentas de Segurança Online Robustas (ROUST) e trabalhará para garantir que as principais tecnologias de segurança sejam mais acessíveis para as empresas, fornecendo ferramentas gratuitas de IA de código aberto para adent, revisão e relatórios de material de abuso sexual infantil.
O assédio sexual infantil é uma epidemia mundial que continua a prosperar em espaços on -line, apesar dos esforços para conter -a. Nos últimos tempos, muitos usuários de aplicativos e até parlamentares sugeriram que criadores de aplicativos como Mark Zuckerberg, da Meta, assumem a responsabilidade pela quantidade de danos que seus produtos estão causando, especialmente onde estão envolvidas pornografia infantil e abuso sexual.
A iniciativa conjunta está acontecendo parcialmente em resposta às mudanças que os avanços generativos de IA fizeram em ambientes on -line. fundador da Rout e o ex -CEO do Google, Eric Schmidt, diz que a iniciativa deseja abordar "uma necessidade crítica de acelerar a inovação na segurança infantil on -line".
Por enquanto, detalhes sobre as ferramentas de detecção do CSAM ainda não estão totalmente disponíveis . No entanto, sabemos que eles utilizarão modelos de IA de grande idioma e "unificarão" as opções existentes para lidar com o conteúdo.
"Começando com uma plataforma focada na proteção infantil, a abordagem colaborativa e de código aberto de Roost promoverá a inovação e tornará a infraestrutura essencial mais transparente, acessível e inclusiva, com o objetivo de criar uma Internet mais segura para todos", afirmou Schmidt.
Como afirmado anteriormente, o anúncio de poleiro coincide com um impulso regulatório em andamento em relação à segurança infantil nas mídias sociais e plataformas on -line. As empresas agora estão procurando apaziguar os legisladores no caminho de guerra com a proposta de auto-regulação.
De acordo com o Centro Nacional de Crianças desaparecidas e exploradas (NCMEC), a suspeita de exploração infantil aumentou 12% entre 2022 e 2023. A partir de 2020, mais da metade de nós, crianças, estava no Roblox, e a empresa levou pesadas críticas repetidamente por falhar em Enfrente a exploração sexual infantil e a exposição ao conteúdo inadequado em sua plataforma.
Os membros fundadores da Rout, com todos os seus recursos, fornecerão financiamento e oferecerão suas ferramentas ou conhecimentos ao projeto à medida que toma forma. A iniciativa também disse que fará parceria com os principais desenvolvedores de modelos da AI Foundation para construir uma "comunidade de prática" para salvaguardas de conteúdo. Isso incluirá o fornecimento de conjuntos de dados de treinamento de IA vertidos e eudentas lacunas em segurança.
A iniciativa também fará "ferramentas que já existem" mais acessíveis, combinando efetivamente várias detecções e relatórios de tecnologia de suas organizações membros em uma solução unificada que outras empresas podem implementar com mais facilidade.
Juntamente com o Roblox, a Discord também foi destacada em um processo de mídia social movido em 2022 que alegou que as plataformas não fizeram nada para impedir que os adultos enviem mensagens a crianças sem supervisão.
Naren Koneru, vicedent de engenharia, confiança e segurança da Roblox, disse que o ROUST pode hospedar sistemas de moderação de IA que as empresas podem integrar através de chamadas de API. No entanto, há alguma imprecisão sobre o que as ferramentas de moderação da AI da ROOST abordarão.
Por exemplo, a Discord diz que suas contribuições se basearão no projeto de compartilhamento de informações de plataforma entre plataformas lanternas que ingressou em 2023 ao lado da Meta e do Google. Mas também pode incluir uma versão atualizada do modelo AI da Roblox para detectar palavrões, racismo, bullying, sexting e outros conteúdos inadequados em clipes de áudio, que a empresa planeja lançar como código aberto este ano.
Resta ver como as ferramentas se cruzam com os sistemas de detecção CSAM de primeira linha já existentes, como a ferramenta de análise de imagem PhotoDNA da Microsoft.
Além de fazer parte do Roost, a Discord também lançou um novo recurso "ignorar" que permite que os usuários ocultem mensagens e notificações que recebem sem notificar as pessoas que mudaram.
"Na Discord, acreditamos que a segurança é um bem comum", compartilhou o diretor jurídico da Discord, Clint Smith, no anúncio do poleiro. "Estamos comprometidos em fazer toda a Internet - não apenas a discórdia - um lugar melhor e mais seguro, especialmente para jovens".
Nesse momento, a iniciativa levantou mais de US $ 27 milhões que serão responsáveis por seus primeiros quatro anos de operações, com o apoio de organizações filantrópicas como a McGovern Foundation, o Future of Online Trust and Safety Fund, Knight Foundation e a AI Collaborative.
A Organização de Rotas também terá o apoio de especialistas em segurança infantil, inteligência artificial, tecnologia de código aberto e "combate ao extremismo violento". É essencialmente o culminar das grandes mentes da tecnologia trabalhando juntas para conter o abuso sexual infantil e como seu conteúdo se espalha por todo o mundo. E como é de código aberto, atualizações contínuas e melhorias da comunidade global de desenvolvedores podem ser feitas, o que significa que o poleiro da besta está prestes a criar continuará a evoluir com o passar do tempo.
Academia Cryptopolitan: Você está cometendo esses erros de currículo da Web3? - Descubra aqui