• https://www.instagram.com/campelofilhoadv/
Rua Áurea Freire, 1443 Bairro Jóquei | Teresina – PI
(86) 3303-0466

Senado aprova pena maior para crime com uso de IA e deepfake contra a mulher

O Senado Federal aprovou o PL 370/2024, que aumenta a pena para o crime de violência psicológica contra a mulher quando este é cometido com o uso de inteligência artificial ou outras tecnologias que alterem a imagem ou a voz da vítima. A proposta, de autoria da deputada Jandira Feghali e relatada pela senadora Daniella Ribeiro, segue agora para sanção presidencial. Com a nova regra, a pena de reclusão de seis meses a dois anos, além de multa, será aumentada da metade se o crime envolver o uso dessas tecnologias.

 

A medida responde a uma realidade alarmante: a crescente utilização de tecnologias como o deepfake — técnica que, por meio de IA, manipula vídeos e áudios para simular, com alto grau de verossimilhança, declarações e ações que jamais ocorreram — com fins ofensivos, especialmente direcionados a mulheres.

 

Dados citados pela senadora Eliziane Gama, mostram que 96% das imagens manipuladas com essa tecnologia envolvem mulheres. Ela também afirmou que pouco mais de 24% das brasileiras relataram ter sofrido algum tipo de violência no ano de 2024.

 

Além do PL 370/2024, o Senado também debateu e aprovou o Projeto de Lei 1.238/2024, de autoria do senador Vanderlan Cardoso, que trata do chamado “estupro virtual”. A proposta visa criminalizar atos de estupro mesmo sem contato físico direto, incluindo aqueles realizados por meios digitais. A pena básica para o estupro virtual poderá variar de seis a dez anos, podendo chegar a até 30 anos nos casos com agravantes.

 

O desafio da proteção da mulher na era da manipulação digital

 

A violência psicológica contra a mulher, já tipificada no Código Penal, ganha novas camadas de complexidade com o avanço da tecnologia. A manipulação de conteúdos audiovisuais, facilitada por ferramentas de IA generativa, tem sido utilizada como instrumento de humilhação, chantagem, ridicularização e controle — práticas que ferem frontalmente a dignidade e a autodeterminação das mulheres. A inclusão do uso de IA como agravante penal reconhece, com precisão, a gravidade ampliada dessas condutas no ambiente digital.

 

Do ponto de vista jurídico, a inovação legislativa tem méritos inegáveis. Em primeiro lugar, confere maior efetividade à proteção assegurada pela Lei Maria da Penha (Lei nº 11.340/2006) e reforça a perspectiva de gênero no enfrentamento da violência online. Em segundo, representa uma resposta legislativa alinhada ao princípio da prevenção geral positiva do Direito Penal: ao elevar a pena, busca-se desencorajar o uso abusivo das tecnologias para fins ilícitos.

 

A discussão e aprovação dessas propostas demonstram uma crescente preocupação do Legislativo com a violência de gênero no contexto digital, bem como um esforço para modernizar a legislação a fim de enfrentar esses novos desafios. É, sem dúvida, um passo importante na construção de um ambiente digital mais seguro, ético e respeitoso. Que essa legislação não seja, como alertou a senadora Eliziane Gama, uma “letra morta”, mas sim um instrumento efetivo de justiça e reparação.

Fonte: Agência Senado

Read more
pixabay

Inteligência Artificial e LGPD: uma reflexão necessária sobre proteção de dados

Nos últimos dias, uma nova febre surgiu nas redes sociais: converter fotos pessoais em versões no estilo dos estúdios Ghibli, com aquele visual inspirado nas animações japonesas. A brincadeira caiu nas graças dos usuários, que ficaram encantados com suas versões em desenho animado. Até aí, tudo bem. Mas dúvidas pairam sobre o que há por trás dessa tendência. Afinal, trata-se de uma imagem sua sendo disponibilizada para uma inteligência artificial, e você não sabe exatamente o que será feito dela além da animação.

 

Abri o artigo com esse exemplo para introduzir a matéria “Do ChatGPT ao Grok, nenhuma IA cumpre exigências mínimas da lei brasileira de proteção de dados”, publicada na edição de sexta-feira (03) do jornal O Globo. O texto traz, com exclusividade, informações sobre a pesquisa do Centro de Tecnologia e Sociedade da FGV Direito Rio (CTS-FGV), que revela o não cumprimento das exigências da Lei Geral de Proteção de Dados (LGPD – Lei nº 13.709/2018) pelas sete plataformas de inteligência artificial mais populares no Brasil: ChatGPT, Copilot, Gemini, Claude, Grok, DeepSeek e Meta AI.

 

Segundo a matéria, foram analisados quatorze critérios, e o resultado mostra que nenhuma das plataformas atende integralmente às exigências da lei. Até mesmo requisitos básicos, como a disponibilização da política de privacidade em português e a comunicação clara dos direitos dos titulares de dados, são negligenciados por boa parte dessas tecnologias. O cenário varia do “baixo ao assustador”, conforme definiu o coordenador do estudo, professor Luca Belli.

 

A LGPD foi usada como referência para estabelecer os padrões mínimos que deveriam ser cumpridos. Também foram consultados documentos complementares, como o Guia de Segurança da Informação para Agentes de Tratamento de Pequeno Porte, publicado pela ANPD em 2021, considerado parâmetro básico de boas práticas.

 

A pesquisa da FGV evidencia uma significativa lacuna entre a operação dessas plataformas de IA e os requisitos legais previstos na LGPD, que, vale destacar, estabelece princípios essenciais para o tratamento de dados pessoais no Brasil. Quando uma plataforma omite informações sobre quem é o controlador dos dados, como eles são tratados e para onde são transferidos, compromete-se não apenas a transparência, mas a própria eficácia da lei. Essa falta de conformidade pode expor tanto as empresas quanto os usuários a riscos legais e de privacidade. Temos aí um problema sério: estamos permitindo que tecnologias avancem sem o devido respeito às garantias fundamentais de privacidade e proteção de dados.

 

Segundo a matéria, a FGV continuará a pesquisa, agora avaliando obrigações mais complexas da LGPD, relacionadas à transparência em decisões automatizadas. Espera-se, portanto, que os resultados possam fomentar discussões e, potencialmente, levar a uma maior atenção regulatória sobre a conformidade das plataformas de IA com a legislação brasileira.

 

Mas, além de avanços regulatórios e de medidas que garantam a segurança dos dados pessoais, é essencial insistir em educação digital, conscientizando a população sobre a importância de proteger seus dados, ampliando a compreensão sobre os riscos da coleta massiva de informações e a importância da privacidade como pilar da cidadania.

Read more

Brasil não avança na implementação do Plano Brasileiro de Inteligência Artificial

Com investimento previsto de R$ 23 bilhões em quatro anos (2024-2028), o Plano Brasileiro de Inteligência Artificial (PBIA), lançado em julho do ano passado durante a 5ª Conferência Nacional de Ciência, Tecnologia e Inovação, ainda não saiu do papel.  O projeto do governo federal tem como objetivo transformar o país em referência mundial em inovação e eficiência no uso da inteligência artificial, especialmente no setor público. No entanto, a inércia na implementação do plano gera preocupações sobre a capacidade do Brasil de acompanhar o ritmo acelerado da evolução da IA.

 

Para contextualizar o leitor, o PBIA é coordenado pelo Ministério da Ciência, Tecnologia e Inovação (MCTI), e busca desenvolver soluções em IA que melhorem a qualidade de vida da população, otimizando a entrega de serviços públicos e promovendo a inclusão social em diversas áreas. Para alcançar esses objetivos, o plano prevê a criação de um supercomputador de alta performance, essencial para o processamento de grandes volumes de dados e o desenvolvimento de algoritmos avançados de IA.

 

“A inteligência artificial representa uma verdadeira revolução tecnológica, e o Brasil precisa estar na vanguarda desse movimento. O PBIA, juntamente com iniciativas como o Instituto de Inteligência Artificial do Laboratório Nacional de Computação Científica (LNCC), visa garantir que o país seja protagonista nesse cenário global, gerando empregos, promovendo a inovação e construindo um futuro mais próspero para todos”, afirmou, na ocasião, a ministra de Ciência, Tecnologia e Inovação, Luciana Santos.

 

Contudo, o plano permanece estagnado, como observa Sílvio Meira, professor, pensador, empreendedor e um dos maiores especialistas em inovação do Brasil, em entrevista ao CDemPauta, do portal Convergência Digital, na última quarta-feira, 19 de março. Durante a conversa sobre “IA: os desafios da tecnologia e o papel do Brasil” (assista aqui), Meira ressaltou a lentidão na execução do projeto.

 

“Em agosto do ano passado, a gente publicou o Plano Brasileiro de Inteligência Artificial. Estamos em março e, até agora, não começamos a investir no plano. O plano é bom, razoável para o Brasil. É espetacular se considerarmos que não tínhamos nenhum plano e agora temos um. O que precisamos é tirá-lo do papel”, afirmou Meira, ressaltando que desde o lançamento do plano muita coisa mudou no mundo da IA.

 

“Quando aquele plano foi feito, DeepSeek não estava na cabeça de absolutamente ninguém que sentou lá para conversar. Qwen não estava lá, o mundo de agente de Inteligência Artificial em rede também não estava lá, o mundo de aplicações que a gente viu se tornar viável também não estava. Então, se a gente não começar a investir imediatamente naquele plano, a gente tem que refazer o plano imediatamente também”.

 

A entrevista de Sílvio Meira destaca a urgência e a complexidade do desafio enfrentado pelo Brasil na área da IA. O Plano Brasileiro de Inteligência Artificial representa uma oportunidade única para o país se posicionar como líder global em inovação. Mas para isso, é necessário que o plano avance do papel para a prática.

Read more

Tecnologia, habilidades humanas e o futuro dos empregos até 2030

O Relatório sobre o Futuro dos Empregos 2025, divulgado pelo Fórum Econômico Mundial revela que as mudanças no mercado de trabalho equivalerão a 22% dos empregos até 2030, com a criação de 170 milhões de novas funções e a eliminação de outras 92 milhões, resultando em um aumento líquido de 78 milhões de empregos. Os dados foram coletados junto a mais de mil empresas, abrangendo 22 setores e 55 economias e mostram as transformações para o mercado de trabalho global até 2030 impulsionadas por tecnologias emergentes, mudanças demográficas e desafios econômicos e geopolíticos.

 

Além de tendências sobre profissões em ascensão e declínio, o relatório destaca a lacuna de habilidades como o obstáculo mais significativo para a transformação das empresas diante das macrotendências globais. Essa lacuna foi apontada por 63% dos empregadores como a principal barreira para evitar que suas operações se tornem obsoletas.

 

“Embora a demanda de habilidades tecnológicas em IA, big data e redes e segurança cibernética deva ter o maior crescimento, habilidades humanas, como pensamento analítico, habilidades cognitivas, resiliência, liderança e colaboração, continuarão sendo essenciais. Uma combinação de ambos os conjuntos de habilidades será cada vez mais exigida em muitos empregos que estão aumentando”, destaca o relatório.

 

Diante desse cenário, líderes empresariais, formuladores de políticas públicas e gestores precisarão investir de forma estratégica e contínua na capacitação de seus colaboradores, oferecendo programas robustos de reskilling (requalificação) e upskilling (aprimoramento). Essa medida, mais do que uma opção empresarial, é uma necessidade de sobrevivência e competitividade frente ao rápido avanço tecnológico.

 

Tais mudanças também implicam na evolução das políticas corporativas para atender às novas realidades. Gestores precisarão demonstrar maior sensibilidade e habilidade para liderar equipes em cenários de constante mudança, criando ambientes organizacionais resilientes, adaptáveis e que valorizem a colaboração interpessoal e a diversidade de habilidades.

 

Para os governos, fica evidente a necessidade urgente de reformular políticas públicas, especialmente nas áreas de educação e emprego. Investir em capacitação tecnológica é fundamental, mas também será essencial fortalecer os sistemas educacionais para formar cidadãos capazes não apenas de se adaptar aos avanços tecnológicos, de liderá-la de forma ética e sustentável.

 

Outro aspecto relevante são as implicações legais relacionadas à proteção e segurança de dados, especialmente com o avanço da automação e da inteligência artificial. Empresas deverão estar atentas à conformidade regulatória diante das crescentes ameaças cibernéticas, reforçando investimentos em segurança digital e treinamento adequado.

 

Os pontos destacados acima são apenas um pequeno recorte do Relatório sobre o Futuro dos Empregos 2025, elaborado pelo Fórum Econômico Mundial. Além das questões tecnológicas, o relatório aborda desafios geoeconômicos, geopolíticos e demográficos e seu impacto sobre o mercado de trabalho. Também apresenta recomendações práticas para empresas, governos e educadores se prepararem para os empregos do futuro. Entre as principais recomendações está a necessidade de colaboração entre esses atores, visando transições e estratégias de força de trabalho justas e inclusivas, apoiando os trabalhadores durante as transformações, melhorando a qualidade dos empregos e formando pessoas capazes de não apenas se adaptar às mudanças, mas também de liderá-las com ética, criatividade e responsabilidade social.

Leia o relatório completo no site: https://www.weforum.org/publications/the-future-of-jobs-report-2025/

 

———————————————————————————————————-

Campelo Filho é advogado e escreve todos os sábados no jornal e portal O Dia

Acesse: https://portalodia.com/blogs/coluna-campelo-filho

 

Read more
pixabay

A Proteção de Dados e a Privacidade na Era da Hipervigilância Digital

A proteção de dados pessoais entrou para o rol de direitos e garantias fundamentais no Brasil em fevereiro de 2022 por meio da Emenda Constitucional (EC) 115/2022. O texto também conferiu à União a competência exclusiva para legislar sobre o tema, permitindo maior segurança jurídica ao país na aplicação da LGPD.

Eu acompanhei todo esse debate como membro do Conselho Nacional de Proteção de Dados (CNPD), órgão consultivo que integra a estrutura da Autoridade Nacional de Proteção de Dados (ANPD), responsável por implementar e fiscalizar o cumprimento da LGPD no Brasil. Para mim, que sigo estudando e debatendo o assunto, esse avanço normativo foi uma grande conquista e reflete o reconhecimento da privacidade como um direito fundamental, essencial à dignidade, autonomia e liberdade das pessoas em uma sociedade democrática.

Abordo esse assunto hoje, porque nesta terça-feira, 28, se comemora o Dia Internacional da Proteção de Dados e esse é um tema que nunca deve ser negligenciado, especialmente na atualidade quando vivemos em um mundo cada vez mais conectado e marcado pela hipervigilância digital.

Byung-Chul Han, em A Sociedade da Transparência (2020), ao fazer uma referência a Rousseau e à sua exigência por transparência do coração como sendo um imperativo moral, aduz que a “casa sagrada com cobertura, muros, janelas e portas” é, hoje, de qualquer modo, “transpassada” por “cabos materiais e imateriais” e que desmorona em ruína pelas rachaduras do vento que sopra da comunicação”. Com essa afirmação, Han demonstra a ausência de privacidade no mundo atual, posto “que o vento digital da comunicação e da informação penetra tudo e torna tudo transparente” e que a “iluminação total promete, pois, uma exploração máxima”. (HAN, 2020, p. 103)

O desenvolvimento acelerado da tecnologia – aliado à proliferação da internet, inteligência artificial (IA), algoritmos e Internet das Coisas (IoT) – ampliou  a coleta e o uso de dados pessoais a níveis sem precedentes. Shoshana Zuboff, em A Era do Capitalismo de Vigilância (2019), reforça como a exploração de dados alimenta mercados de “comportamentos futuros”, em que a privacidade é comercializada e controlada. Nesse cenário, a hipervigilância digital exerce uma invasão contínua e abrangente na vida das pessoas, promovendo uma “iluminação total” que desnuda a privacidade, desvelando-a de sua essência ética e moral.

A privacidade, enquanto direito fundamental, enfrenta ameaças crescentes à medida que governos, empresas e outras entidades intensificam a vigilância. O compartilhamento de informações pessoais, antes uma questão restrita à esfera individual, tornou-se uma preocupação global, exigindo debates éticos e legais sobre os limites dessa exposição.

E ainda que os avanços tecnológicos tragam benefícios inegáveis, como inovação e conectividade, é imperativo que o direito à privacidade seja respeitado de forma integral, para que se mantenha eficaz diante de desafios contemporâneos. Isso exige uma abordagem multidimensional, envolvendo não apenas o Estado, mas também a iniciativa privada e a sociedade como um todo.

A pergunta que exsurge, então, é: a privacidade (ou o direito) à privacidade morreu? Será que, nos dias atuais, há espaço para restaurá-la como um pilar essencial de uma sociedade democrática e ética? Difícil responder. E mais do que reflexões filosóficas, como as de Han e Zuboff, precisamos de ações concretas na regulamentação do uso de tecnologias, na promoção da educação digital e na conscientização sobre os direitos individuais e coletivos. Quem sabe assim, conseguiremos equilibrar inovação tecnológica com proteção e privacidade de dados e preservação da dignidade humana.

Read more

Inteligência Artificial no Judiciário: Uso ainda é raro e eventual, mas cresce interesse pela tecnologia.

A pesquisa “O uso da Inteligência Artificial Generativa no Poder Judiciário”, do Conselho Nacional de Justiça (CNJ), revela que quase metade dos servidores e magistrados que responderam ao diagnóstico sobre Inteligência Artificial (IA) generativa nos tribunais utiliza a ferramenta, embora mais de 70% o façam “raramente” ou “eventualmente”.

Foram ouvidos 1.681 magistrados e 16.844 servidores. Segundo o relatório, o ChatGPT, da Open AI, é a ferramenta mais utilizada (96% entre magistrados e 94% entre servidores). O Copilot, da Microsoft, e o Gemini, do Google, também são populares. O estudo revelou ainda que há uma predominância pelo uso de versões livres/abertas, dado que, na visão dos pesquisadores, é preocupante, uma vez que podem conter imprecisões e erros.

Cerca de 27% dos magistrados e 31% dos servidores utilizam a IA generativa para tarefas profissionais. O estudo identificou também interesse expressivo entre aqueles que não a empregam em suas funções. Em ambos os grupos, a maioria manifestou elevada crença da Inteligência Artificial (IA) generativa para apoio à atividade judicial, sobretudo em tarefas que envolvem tecnologia da informação, estatística ou ciência de dados.

A falta de familiaridade com a Inteligência Artificial foi uma das principais dificuldades identificadas na pesquisa, daí, um interesse massivo entre os magistrados e servidores em treinamento e capacitação na área.

A pesquisa foi apresentada durante uma audiência pública realizada pelo CNJ em Brasília, que aconteceu no período de 25 a 27 de setembro, para debater e colher sugestões que possam contribuir com a regulamentação do uso de inteligência artificial no Poder Judiciário.

 

Advogado e piauiense participa da audiência

 

A audiência pública do CNJ para discutir o uso da Inteligência no Judiciário reuniu especialistas, representantes da sociedade e das comunidades jurídicas e acadêmicas habilitados para discutir o tema, entre eles, o professor e advogado piauiense Berto Igor Caballero Cuellar, pesquisador do Laboratório de Inteligência Artificial do IDP.

“Com o avanço das Ias generativas, o CNJ percebeu a necessidade de uma nova regulamentação e abriu uma minuta para consulta pública. Fui selecionado como pesquisador para contribuir com esse debate, representando o Laboratório de Governança e Regulamentação de IA do IDP (LIA), onde faço meu doutorado”, disse Caballero.

O professor e pesquisador defendeu classificar como de alto risco a produção de textos de apoio para facilitar a confecção de atos judiciais, desde que a supervisão e a versão final do documento sejam realizadas pelo magistrado, bem como as decisões acerca das preliminares e questões de mérito. Na minuta, essa solução é considerada de baixo risco.

As contribuições colhidas durante os três dias do evento serão utilizadas na atualização da Resolução CNJ 332/2020, que dispõe sobre a ética, a transparência e a governança na produção e no uso de IA nas instituições da Justiça brasileira.

 

“Uso da IA no Judiciário é uma questão de sobrevivência”

O ministro Luís Roberto Barroso, presidente do CNJ e do STF, participou do primeiro dia da audiência e disse que a utilização da IA no Judiciário é uma questão de sobrevivência, diante da quantidade de processos judiciais que correm na Justiça brasileira.

“A preocupação que temos de regular o uso da IA no sistema de Justiça se dá porque estamos utilizando a IA à frente de todos. Nenhum país do mundo está investindo tanto tempo e energia em construir ferramentas que permitam sua utilização pelo Poder Judiciário. Mas nenhum lugar do mundo tem 83,8 milhões de processos em tramitação. Para nós, a IA é uma questão de sobrevivência para o funcionamento adequado do Judiciário, produzindo decisões a tempo e a hora”, diz Barroso.

O ministro comparou o impacto da IA a grandes avanços históricos, como a descoberta da eletricidade e inovações médicas. No entanto, alertou para os impactos no mercado de trabalho, mencionando a necessidade de redes de proteção social e de adaptação a novas áreas. Barroso também defendeu que a regulação da IA deve garantir direitos fundamentais como privacidade, liberdade de expressão e democracia, além de assegurar transparência e supervisão humana. Ele ressaltou que, embora a regulação seja necessária, ela não deve impedir avanços ou fechar mercados, mas sim garantir que a transformação digital seja inclusiva, ética e eficiente, sempre pautada em valores como justiça e dignidade humana.

Fonte: CNJ

Pesquisa: https://www.cnj.jus.br/wp-content/uploads/2024/09/cnj-relatorio-de-pesquisa-iag-pj.pdf

Read more

ANPD determina suspensão cautelar do tratamento de dados pessoais para treinamento da IA da Meta

A Autoridade Nacional de Proteção de Dados (ANPD) emitiu Medida Preventiva determinando a imediata suspensão, no Brasil, da vigência da nova política de privacidade da empresa Meta, que autorizava o uso de dados pessoais publicados em suas plataformas para fins de treinamento de sistemas de inteligência artificial (IA). O descumprimento pela empresa pode gerar multa diária de R$ 50 mil.

A medida se refere à atualização na política de privacidade da empresa que entrou em vigor no último dia 26 de junho. A nova política se aplica aos “Produtos da Meta”, que incluem o Facebook, o Messenger e o Instagram, e permite que a empresa utilize informações publicamente disponíveis e conteúdos compartilhados por usuários de suas plataformas para treinamento e aperfeiçoamento de sistemas de IA generativa. Tal tratamento pode impactar número substancial de pessoas, já que, no Brasil, somente o Facebook possui cerca de 102 milhões de usuários ativos.

A ANPD tomou conhecimento do caso e instaurou processo de fiscalização de ofício – ou seja, sem provocação de terceiros – em função de indícios de violações à Lei Geral de Proteção de Dados (LGPD). Após análise preliminar, diante dos riscos de dano grave e de difícil reparação aos usuários, a Autoridade determinou cautelarmente a suspensão da política de privacidade e da operação de tratamento.

Nos termos do Voto nº 11/2024/DIR-MW/CD, aprovado pelo Conselho Diretor em Circuito Deliberativo, entendeu-se estarem presentes constatações preliminares suficientes para expedição da Medida Preventiva. São elas: uso de hipótese legal inadequada para o tratamento de dados pessoais; falta de divulgação de informações claras, precisas e facilmente acessíveis sobre a alteração da política de privacidade e sobre o tratamento realizado; limitações excessivas ao exercício dos direitos dos titulares; e tratamento de dados pessoais de crianças e adolescentes sem as devidas salvaguardas.

A ANPD avaliou que a empresa não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa. A Autoridade averiguou, ainda, que, embora os usuários pudessem se opor ao tratamento de dados pessoais, havia obstáculos excessivos e não justificados ao acesso às informações e ao exercício desse direito.

Além disso, a Autarquia considerou inadequada, em análise preliminar, a hipótese legal usada para justificar o tratamento de dados pessoais – o legítimo interesse da empresa. Isso porque tal hipótese não pode ser usada quando houver tratamento de dados pessoais sensíveis (isto é, com maior risco discriminatório). Além disso, é necessária a consideração das legítimas expectativas e a observância dos princípios da finalidade e da necessidade.

No caso concreto, a ANPD considerou que as informações disponíveis nas plataformas da Meta são, em geral, compartilhadas pelos titulares para relacionamento com amigos, comunidade próxima ou empresas de interesse. Diante disso, em análise preliminar, não haveria necessariamente a expectativa de que todas essas informações – inclusive as compartilhadas muitos anos atrás – fossem utilizadas para treinar sistemas de IA, que sequer estavam implementados quando as informações foram compartilhadas.

Por fim, verificou-se que dados pessoais de crianças e adolescentes, como fotos, vídeos e postagens, também poderiam ser coletados e utilizados para treinar os sistemas de IA da Meta. Segundo a LGPD, o tratamento de dados de crianças e de adolescentes deve ser sempre realizado em seu melhor interesse, com a adoção de salvaguardas e medidas de mitigação de risco, o que não foi verificado no âmbito da análise preliminar.

Entenda a medida

A Medida Preventiva é um instrumento de competência dos Diretores da ANPD, utilizada para garantir a efetividade de atuação da Autoridade com vistas à proteção dos direitos dos titulares. Serve, ainda, para evitar a ocorrência de danos graves e irreparáveis ou de difícil reparação para os titulares de dados pessoais.

A Medida Preventiva pode, em casos urgentes, ser adotada inclusive sem prévia manifestação do interessado, e pode ser acompanhada de multa diária pelo descumprimento da obrigação imposta.

Nas medidas preventivas, as condutas das empresas são avaliadas de forma preliminar, como ocorre nos processos de natureza cautelar. A avaliação detalhada das condutas é realizada posteriormente no âmbito do processo fiscalizatório instaurado para este fim, a ser conduzido pela área técnica da ANPD. (Fonte: ANPD)

Read more

ANPD determina suspensão cautelar do tratamento de dados pessoais para treinamento da IA da Meta

A Autoridade Nacional de Proteção de Dados (ANPD) emitiu Medida Preventiva determinando a imediata suspensão, no Brasil, da vigência da nova política de privacidade da empresa Meta, que autorizava o uso de dados pessoais publicados em suas plataformas para fins de treinamento de sistemas de inteligência artificial (IA). O descumprimento pela empresa pode gerar multa diária de R$ 50 mil.

A medida se refere à atualização na política de privacidade da empresa que entrou em vigor no último dia 26 de junho. A nova política se aplica aos “Produtos da Meta”, que incluem o Facebook, o Messenger e o Instagram, e permite que a empresa utilize informações publicamente disponíveis e conteúdos compartilhados por usuários de suas plataformas para treinamento e aperfeiçoamento de sistemas de IA generativa. Tal tratamento pode impactar número substancial de pessoas, já que, no Brasil, somente o Facebook possui cerca de 102 milhões de usuários ativos.

A ANPD tomou conhecimento do caso e instaurou processo de fiscalização de ofício – ou seja, sem provocação de terceiros – em função de indícios de violações à Lei Geral de Proteção de Dados (LGPD). Após análise preliminar, diante dos riscos de dano grave e de difícil reparação aos usuários, a Autoridade determinou cautelarmente a suspensão da política de privacidade e da operação de tratamento.

Nos termos do Voto nº 11/2024/DIR-MW/CD, aprovado pelo Conselho Diretor em Circuito Deliberativo, entendeu-se estarem presentes constatações preliminares suficientes para expedição da Medida Preventiva. São elas: uso de hipótese legal inadequada para o tratamento de dados pessoais; falta de divulgação de informações claras, precisas e facilmente acessíveis sobre a alteração da política de privacidade e sobre o tratamento realizado; limitações excessivas ao exercício dos direitos dos titulares; e tratamento de dados pessoais de crianças e adolescentes sem as devidas salvaguardas.

A ANPD avaliou que a empresa não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa. A Autoridade averiguou, ainda, que, embora os usuários pudessem se opor ao tratamento de dados pessoais, havia obstáculos excessivos e não justificados ao acesso às informações e ao exercício desse direito.

Além disso, a Autarquia considerou inadequada, em análise preliminar, a hipótese legal usada para justificar o tratamento de dados pessoais – o legítimo interesse da empresa. Isso porque tal hipótese não pode ser usada quando houver tratamento de dados pessoais sensíveis (isto é, com maior risco discriminatório). Além disso, é necessária a consideração das legítimas expectativas e a observância dos princípios da finalidade e da necessidade.

No caso concreto, a ANPD considerou que as informações disponíveis nas plataformas da Meta são, em geral, compartilhadas pelos titulares para relacionamento com amigos, comunidade próxima ou empresas de interesse. Diante disso, em análise preliminar, não haveria necessariamente a expectativa de que todas essas informações – inclusive as compartilhadas muitos anos atrás – fossem utilizadas para treinar sistemas de IA, que sequer estavam implementados quando as informações foram compartilhadas.

Por fim, verificou-se que dados pessoais de crianças e adolescentes, como fotos, vídeos e postagens, também poderiam ser coletados e utilizados para treinar os sistemas de IA da Meta. Segundo a LGPD, o tratamento de dados de crianças e de adolescentes deve ser sempre realizado em seu melhor interesse, com a adoção de salvaguardas e medidas de mitigação de risco, o que não foi verificado no âmbito da análise preliminar.

Entenda a medida

A Medida Preventiva é um instrumento de competência dos Diretores da ANPD, utilizada para garantir a efetividade de atuação da Autoridade com vistas à proteção dos direitos dos titulares. Serve, ainda, para evitar a ocorrência de danos graves e irreparáveis ou de difícil reparação para os titulares de dados pessoais.

A Medida Preventiva pode, em casos urgentes, ser adotada inclusive sem prévia manifestação do interessado, e pode ser acompanhada de multa diária pelo descumprimento da obrigação imposta.

Nas medidas preventivas, as condutas das empresas são avaliadas de forma preliminar, como ocorre nos processos de natureza cautelar. A avaliação detalhada das condutas é realizada posteriormente no âmbito do processo fiscalizatório instaurado para este fim, a ser conduzido pela área técnica da ANPD.

(Fonte: ANPD)

Read more

Assembleia Geral da ONU adota resolução histórica sobre Inteligência Artificial

A resolução chega depois da aprovação, pelo Parlamento Europeu, da lei de regulamentação da IA na União Europeia (UE), e reforça a necessidade de se avançar o debate também no nosso país.

A Assembleia Geral da ONU adotou no último dia 21 de março uma resolução histórica sobre a promoção de sistemas de inteligência artificial (IA) “seguros, protegidos e confiáveis” que também beneficiarão o desenvolvimento sustentável para todos.
A resolução adotada pela ONU destaca ainda o respeito, a proteção e a promoção dos direitos humanos na conceção, desenvolvimento, implantação e utilização da IA.
O texto foi “co-patrocinado” ou apoiado por mais de 120 outros Estados-Membros e reconhece o potencial dos sistemas de IA para acelerar e permitir o progresso no sentido de alcançar os 17 Objectivos de Desenvolvimento Sustentável.
Esta é a primeira vez que a Assembleia adota uma resolução sobre a regulamentação da IA e a iniciativa é vista como um “passo histórico” para o uso seguro da ferramenta.
De fato é. Já escrevi em outro artigo que o desenvolvimento da tecnologia traz inúmeros benefícios para a humanidade, não só por propiciar desenvolvimento econômico, inclusive com a redução de custos de produção, aumento da produtividade, otimização e automação dos processos, mas também pelos importantes avanços em áreas como a medicina e na educação, contribuindo para a melhoria da qualidade de vida das pessoas.
Efetivamente, não há como não se considerar as vantagens obtidas pela humanidade através dos avanços tecnológicos, com o uso da inteligência artificial (IA), dos algoritmos, deep learning, robôs, etc. Também não temos dúvidas que a tecnologia permitiu uma maior integração e interação entre as pessoas, na medida em que possibilitou uma maior conectividade, com troca de conhecimentos e experiências.
A utilização de inteligência artificial trouxe também alguns outros aspectos sociais relevantes, bastando observar que essa maior inte(g)ração entre as pessoas, através da expansão da internet e das suas redes de comunicação, aliada à própria globalização econômica, faz com que elas (pessoas), independente do espaço geográfico onde estejam, ou da suas nações originárias, e ainda em face da própria evolução e expansão do conceito de direitos humanos, sejam pertencentes a uma única categoria: a de seres humanos detentores de direitos fundamentais.
É preciso enxergar os avanços da utilização da inteligência artificial, a despeito de sua grande importância, sob uma ótica que não deixe de ver os direitos fundamentais como essenciais à vida em sociedade em um Estado Democrático de Direito, que por isso mesmo se sobrepõe (ou devem se sobrepor) aos interesses relacionados à utilização desses sistemas de inteligência artificial e de automação, em especial quando estes possam afetar direta ou indiretamente aqueles direitos que são fundamentos intrínsecos à dignidade humana.
Eis aí um ponto importante da resolução adotada pela ONU que reforça que “os mesmos direitos que as pessoas têm offline também devem ser protegidos online, inclusive durante todo o ciclo de vida dos sistemas de inteligência artificial”.
Considerando essa premissa, a Assembleia apelou a todos os Estados-Membros e partes interessadas “a absterem-se ou cessarem a utilização de sistemas de inteligência artificial que sejam impossíveis de operar em conformidade com o direito internacional dos direitos humanos ou que representem riscos indevidos para o gozo dos direitos humanos”.
A Assembleia também instou todos os Estados, o sector privado, a sociedade civil, as organizações de investigação e os meios de comunicação social a desenvolverem e apoiarem abordagens e quadros regulamentares e de governança relacionados com a utilização segura e fiável da IA.
O texto adotado pela Assembleia reconhece ainda os “níveis variados” de desenvolvimento tecnológico entre e dentro dos países, e que as nações em desenvolvimento enfrentam desafios únicos para acompanhar o ritmo rápido da inovação. Daí, a importância de Estados-Membros e partes interessadas cooperarem e apoiarem os países em desenvolvimento para que possam beneficiar de um acesso inclusivo e equitativo, eliminar a exclusão digital e aumentar a literacia digital.
A Embaixadora dos EUA e Representante Permanente na ONU, Linda Thomas-Greenfield, apresentou o projeto de resolução e expressou esperança de que o “diálogo inclusivo e construtivo que levou a esta resolução serviria de modelo para futuras conversações sobre os desafios da IA em outras áreas, por exemplo, no que diz respeito à paz e segurança e ao uso militar responsável da autonomia da IA”.
A Resolução da ONU é mais um exemplo de que o debate sobre a regulamentação da IA é necessária também no Brasil. Ela chega depois da aprovação, pelo Parlamento Europeu, da lei de regulamentação da inteligência artificial (IA) na União Europeia (UE), ocorrida no início de março e considerada a primeiro do seu tipo no mundo.
No Brasil, o debate caminha a passos lentos e vale lembrar, mais uma vez, que existem, atualmente, cerca de 46 projetos de lei que buscam regulamentar o uso de inteligência artificial (IA) no nosso país. Alguns deles datam de 2019, mas a maior parte das proposições são de 2023.
Um deles é o PL 2338/2023, de autoria do presidente do senado, senador Rodrigo Pacheco, que estabelece normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Brasil, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico.
Que o Brasil siga, portanto, o exemplo.
(com informações https://news.un.org/)

Read more

A transformação digital no mundo contemporâneo: reflexos no direito fundamental à proteção de dados pessoais

O desenvolvimento da tecnologia, sem dúvida, tem trazido inúmeros benefícios para a humanidade, não só por propiciar desenvolvimento econômico, inclusive com a redução de custos de produção, aumento da produtividade, otimização e automação dos processos, mas também pelos importantes avanços na medicina e na própria educação, contribuindo para a melhoria da qualidade de vida das pessoas. Efetivamente, não há como não se considerar as vantagens obtidas pela humanidade através dos avanços tecnológicos, com o uso da inteligência artificial (IA), dos algoritmos, deep learning, robôs, etc.

Para além desses campos, a tecnologia permitiu uma maior integração e interação entre as pessoas, na medida em que possibilitou uma maior conectividade, com troca de conhecimentos e experiências. De fato, a utilização de sistemas com inteligência artificial (IA) e automação (ADM), que permite ainda que objetos se conectem uns aos outros, recebam e enviem informações utilizando a internet, tem sido responsável por um aumento considerável das informações e dos dados que são compartilhados e armazenados em todo o mundo.

A capacidade tecnológica mundial de armazenar, comunicar e computar informações, conforme pesquisa publicada ainda em 2012, em que o autor rastreou 60 tecnologias analógicas e digitais durante o período de 1986 a 2007, cresceu a uma taxa anual de 58%, por sua vez a capacidade mundial de telecomunicações bidirecionais cresceu 28% ao ano e as informações armazenadas globalmente tiveram um aumento de 23%.

Segundo a Organização das Nações Unidas (ONU), o volume de dados no mundo tem aumentado exponencialmente. Para se ter uma ideia, na matéria intitulada “Big Data for Sustainable Development”̹, publicada em seu site, a ONU informa que em 2020 foram criados 64,2 zettabytes de dados, o que corresponde a um aumento de 314% em relação a 2015, aduzindo que hoje os dados são coletados passivamente, derivados de interações diárias com produtos ou serviços digitais, incluindo telefones celulares, cartões de crédito e mídias sociais. Ela dá conta ainda de que o volume de dados está crescendo porque estão sendo cada vez mais coletados por dispositivos móveis de detecção de informações e porque a capacidade mundial de armazenar informações praticamente tem dobrado a cada 40 meses, desde a década de 1980.

A utilização de inteligência artificial trouxe também alguns outros aspectos sociais relevantes, bastando observar que essa maior inte(g)ração entre as pessoas, através da expansão da internet e das suas redes de comunicação, aliada à própria globalização econômica, faz com que elas (pessoas), independente do espaço geográfico onde estejam, ou da suas nações originárias, e ainda em face da própria evolução e expansão do conceito de direitos humanos, sejam pertencentes a uma única categoria: a de seres humanos detentores de direitos fundamentais. A redundância aqui é aparente, e a história assim o confirma, considerando que ao longo da existência humana na terra, muitas atrocidades foram (e ainda são) praticadas contra pessoas justamente por fazerem parte de determinados grupos, religiões, raças ou origens.

Esse conceito de ser humano detentor de direitos fundamentais, sem qualquer adjetivação, possibilita a criação de um sentimento de pertencimento de todos a uma mesma categoria, sem discriminação, preconceitos ou rótulos, estabelecendo uma responsabilidade social para cada um, individualmente, e para todos em conjunto, pelo respeito aos valores sociais ligados à dignidade do ser humano. Não se pode negar que ao longo da história, sem dúvida, houve um continuado avanço em direção a uma socialização global, à medida que foram crescendo as discussões e debates sobre a proteção e a defesa dos direitos humanos, onde todos são eticamente e legalmente responsáveis.

Não se pode deixar de reconhecer, assim, a influência da tecnologia e do avanço da utilização da internet e das redes sociais nesse processo que culmina com essa desadjetivação do ser humano e com o surgimento da responsabilização social de todos, individual e coletivamente. Todavia, se por um lado toda essa intensificação das relações entre as pessoas e o aumento exponencial da velocidade de informação e de troca de dados permitiu que se pensasse nessa referida categorização, por outro, abriu margem para que outros direitos fundamentais fossem violados, como o da proteção de dados, da privacidade e da imagem. É que os dados se tornaram economicamente valorados, sendo inclusive objeto de comercialização, e ainda passaram a ser utilizados de modo que as pessoas começaram a ser manipuladas, a serem dirigidas não de acordo com suas respectivas vontades, mas de acordo com os interesses do mercado ou dos terceiros que possuíam esses dados.

Shoshana Zuboff assinala de forma muito contundente que todo esse processo de utilização dos dados das pessoas que acessam as plataformas digitais dessas empresas, especialmente Google, YouTube e Facebook, tem permitido a criação de uma nova ordem capitalista: o Capitalismo de Vigilância. Nesse sentido, esse novo capitalismo de vigilância já utiliza como objeto negocial, inclusive, o comportamento futuro das pessoas.

Desse modo, tem-se que a utilização dos sistemas de inteligência artificial, utilização de algoritmos e de automação devem necessariamente ser limitados ou fiscalizados para impedir que afetem os direitos fundamentais das pessoas, estes inseridos no campo dos direitos humanos, com respaldo Constitucional nos países democráticos, dentre eles o Brasil, bem como na própria Declaração Universal dos Direitos Humanos.

É inegável que os sistemas de inteligência artificial e de automação podem atentar contra a liberdade das pessoas, o direito à privacidade e proteção de dados, bem como podem servir de instrumento de discriminação, exsurgindo daí a necessidade de que haja uma legislação forte, eficaz juridicamente, focada na proteção desses direitos fundamentais e que não se limite a mitigar os efeitos de eventuais ações que envolvam inovação e tecnologia.

É preciso enxergar os avanços da utilização da inteligência artificial, a despeito de sua grande importância, sob uma ótica que não deixe de ver os direitos fundamentais como essenciais à vida em sociedade em um Estado Democrático de Direito, que por isso mesmo se sobrepõe (ou devem se sobrepor) aos interesses relacionados à utilização desses sistemas de inteligência artificial e de automação, em especial quando estes possam afetar direta ou indiretamente aqueles direitos que são fundamentos intrínsecos à dignidade humana.

Read more