25 de abril de 2024, 9h19
O Conselho Nacional dos Direitos da Criança e do Adolescente lançou no último dia 5 de abril a Resolução 245/2024 que “dispõe sobre os direitos das crianças e adolescentes em ambiente digital”. O Conanda, órgão vinculado ao Ministério dos Direitos Humanos e da Cidadania, tem desempenhado papel relevante ao longo dos últimos anos na proteção de direitos de crianças e adolescentes. É conhecida, por exemplo, a sua resolução 163 de 2014, que remodelou a atividade de publicidade infantil no Brasil.
A nova resolução foi criada levando em consideração o princípio da proteção integral do adolescente, (cf. o artigo 227 da CF), ou seu interesse superior (artigo 5º da resolução), baseando-se em documentos internacionais, como o Comentário Geral nº 25 de 2021, do Comitê de Direitos das Crianças da ONU.
Entre os princípios, além do reforço do reconhecimento da proteção de dados, também foi estabelecida a chamada “autonomia progressiva” como um de seus princípios (artigo 3º), expressão do próprio artigo 12 da Convenção sobre os Direitos da Criança.
Logo em seu artigo 2º, a resolução estabelece que a garantia e proteção dos direitos de crianças e adolescentes nos ambientes digitais é dever de todos, inclusive das empresas provedoras.
Tal diretriz desfaz a falsa ideia de que a proteção dos infantes na internet seria tarefa somente dos pais [1]. Contrariamente, os provedores de serviços digitais — principalmente os de redes sociais — devem estar atentos para os efeitos adversos que seus serviços podem causar no público mais vulnerável, principalmente, pois o artigo 4º estabelece o direito de acesso aos ambientes digitais com a garantia de que os conteúdos acessados sejam compatíveis com a condição de criança.
Essa condição, como se sabe, difere do grau de evolução da criança, sendo que o §3º do artigo 6º indica que se deve avaliar os efeitos do uso da tecnologia no “desenvolvimento cognitivo, emocional e social do indivíduo”, diretriz que deve ser observada pelos próprios familiares.
O artigo 11 estabelece que o direito à liberdade de expressão também “inclui a liberdade de buscar, receber e compartilhar informações seguras, íntegras e adequadas”, o que significa que esse direito fica remodelado e funcionalizado pelo eventual controle a ser feito pelos prestadores de serviços digitais [2].
Dever ativo
Os provedores passam a ter um dever ampliado de informação, eis que devem “difundir informações sobre uso saudável, seguro e apropriado da tecnologia” [3]. Com essa regra, projeta-se que os provedores terão o dever ativo de informar sobre o uso seguro e apropriado, além de disponibilizar em seus sites áreas específicas para a divulgação dessas informações.
Essa nova obrigação também é modelada pelo artigo 21, quando refere o fornecimento de informações “em linguagem simples, acessível e de fácil compreensão para crianças” e também pelo artigo 264, nos canais de denúncias. Defendemos que a utilização de linguagem adequada e apropriada deve ser utilizada não somente nos canais de denúncias, mas em todos os ambientes que forem utilizados por crianças.
A própria plataforma deve conseguir adaptar suas interfaces para deixá-las mais compreensíveis e acessíveis quando detectar que o sistema está sendo utilizado por crianças e adolescentes. Além disso, o provedor deve disponibilizar publicamente informações sobre denúncias recebidas, conforme o §1º do artigo 21, além de relatórios anuais de conformidade nos termos do artigo 28.
Privacy by default
Outra definição importante relacionada à proteção de dados pessoais é a proteção da privacidade de crianças e adolescentes por padrão, assim estabelecida no artigo 12. Trata-se do conhecido princípio do privacy by default, que, diante da vulnerabilidade das crianças e dos adolescentes, adquire mais importância ainda nos contextos de serviços digitais [5].
O mesmo artigo 12 destaca a importância do princípio da necessidade (§1º) e a indicação de que os dados devem ser tratados seguindo “os mais altos padrões de proteção, segurança e procedimentos éticos”.
Do ponto de vista prático, isso significa dizer que as empresas devem adotar (e comprovar) padrões mais intensos ainda de proteção do que deveriam aplicar para o tratamento de dados de adultos, o que inclui uma atuação preventiva das empresas (cf. o artigo 23). Se o público infantojuvenil goza de proteção integral e prioritária – inclusive no ambiente digital — todo e qualquer serviço deve promover a proteção seguindo este standard.
Uso dos dados para fins comerciais e limites para publicidade infantil
Ainda no âmbito da proteção de dados, o artigo 14 proíbe o uso de dados pessoais de crianças e adolescentes para fins comerciais, o que inclui a criação de perfis e a proibição também do uso desses dados para publicidade comportamental. Também é citada, como complemento, a Resolução 163 do Conanda que estabelece os limites para a publicidade infantil.
Assim, as resoluções 163 e 245 dialogam para proibir a publicidade comportamental de crianças e adolescentes, havendo, portanto, uma ampliação das vedações estabelecidas naquela resolução. Essa é, talvez, uma das determinações mais importantes da resolução.Entre outras disposições previstas, ficou estabelecido o prazo de 90 dias após a publicação da resolução para o desenvolvimento da Política Nacional de Proteção dos Direitos da Criança e do Adolescente no ambiente digital [6].
A presente resolução é documento obrigatório para guiar as ações de todas as instituições que tratam dados pessoais de crianças e adolescentes ou que, em última análise, prestam serviços ou oferecem produtos para esse público.
[1] Sendo complementado também pelas disposições do art. 6º. O referido artigo exemplifica as situações de riscos relacionados ao conteúdo, ao estabelecer: “As violações de direitos relacionadas aos riscos de conteúdo, contrato, contato e conduta incluem, dentre outros, conteúdos violentos e sexuais, cyber agressão ou cyberbullying, discurso de ódio, assédio, adicção, jogos de azar, exploração e abuso – inclusive sexual e comercial, incitação ao suicídio, à automutilação, publicidade ilegal ou a atividades que estimulem e/ou exponham a risco sua vida ou integridade física”. Destaca-se que o dever de proteção é extensivo às empresas provedoras de produtos e serviços também sediadas no exterior, conforme o art. 17 da resolução.
[3] Cf. o §4º do art. 6º.
[4] Um ótimo exemplo dessa adaptação na informação dada para crianças foi feito pela Maurício de Souza Produções em conjunto com o Google ao elaborar guia sobre LGPD para o público infantil, cf Turma da Mônica e Google se unem por uma internet mais segura para crianças. Disponível em: https://blog.google/intl/pt-
[5] Em sentido semelhante, o §2º do art. 17, obriga as empresas a observar as diretrizes de proteção desde a concepção dos produtos ou serviços. Aqui, em vez do privacy by default, nota-se o princípio do protection by design. Isso significa que as empresas devem, no desenvolvimento dos produtos e serviços, além de observar a proteção de dados (privacy by design), adotar medidas para garantir que suas soluções técnicas não violem os direitos específicos de crianças e adolescentes no ambiente digital. Isso inclui, entre outras questões, o dever de implementar mecanismos robustos de verificação etária, conforme o art. 19. Esta obrigação também é complementada pelo art. 22, ao estabelecer uma abordagem de controle de risco ativo para os provedores. Inclusive, o inc. I deste artigo coloca como um dos riscos aqueles que prejudicarem a saúde mental e poderem causar vício e uso excessivo de telas.
[6] Nos termos do §2º do art. 9º.
Nenhum comentário:
Postar um comentário