Novo recurso começa a ser implementado em quatro países e reforça debate global sobre proteção de menores nas redes sociais
O Instagram anunciou que passará a notificar pais e responsáveis quando adolescentes realizarem buscas repetidas, em curto período, por termos relacionados a suicídio ou automutilação dentro da plataforma. A medida será implementada inicialmente nos Estados Unidos, Canadá, Reino Unido e Austrália, sem previsão oficial de chegada ao Brasil.
A iniciativa foi divulgada pela Reuters e ocorre em meio ao aumento da pressão internacional por regras mais rígidas para proteger menores no ambiente digital.
A plataforma, controlada pela Meta Platforms Inc., informou que os alertas serão enviados aos pais que já utilizam o recurso opcional de supervisão parental no Instagram. O sistema identificará padrões de buscas consideradas sensíveis e notificará os responsáveis cadastrados.
Segundo comunicado da empresa, o objetivo é ampliar as ferramentas de proteção e prevenção, fortalecendo o acompanhamento familiar no uso das redes.
Pressão internacional por mais controle
O anúncio ocorre em um cenário de mudanças regulatórias em diversos países. A Austrália aprovou recentemente uma legislação que proíbe o uso de redes sociais por menores de 16 anos. Já o Reino Unido afirmou em janeiro que estuda adotar restrições adicionais para proteger crianças online.
Espanha, Grécia e Eslovênia também discutem medidas semelhantes, ampliando o debate sobre os limites da liberdade digital e a responsabilidade das plataformas.
Governos têm intensificado discussões sobre segurança online, privacidade e o papel das empresas de tecnologia na proteção de usuários mais jovens.
Como funcionam as contas supervisionadas
O Instagram já possui as chamadas “contas de adolescentes” para menores de 16 anos. Nessas contas, mudanças importantes nas configurações exigem autorização dos pais.
Com a nova funcionalidade, responsáveis que ativarem a camada adicional de supervisão poderão receber notificações caso o adolescente realize buscas repetidas por conteúdos sensíveis — sempre dentro dos limites das políticas de privacidade da plataforma.
A empresa reforça que mantém regras rígidas contra conteúdos que promovam ou glorifiquem práticas prejudiciais, destacando que o recurso tem caráter preventivo e educativo.
E no Brasil?
Até o momento, não há previsão de implementação do recurso no Brasil. Especialistas avaliam que qualquer avanço nesse sentido deve equilibrar três pilares fundamentais: proteção de menores, privacidade individual e liberdade de expressão.
O tema reacende um debate cada vez mais urgente: qual deve ser o papel das plataformas, das famílias e do Estado na segurança digital de adolescentes?


