• https://www.instagram.com/campelofilhoadv/
Rua Áurea Freire, 1443 Bairro Jóquei | Teresina – PI
(86) 3303-0466

Inteligência Artificial em alta, orientação pedagógica em baixa

A 15ª edição da pesquisa TIC Educação, realizada pelo Centro Regional de Estudos para o Desenvolvimento da Sociedade da Informação (Cetic.br) do Núcleo de Informação e Coordenação do Ponto BR (NIC.br), apresenta dados sobre o uso da Inteligência Artificial Generativa (IAG) na educação e na vida dos estudantes brasileiros. Segundo o estudo, sete em cada dez estudantes brasileiros do Ensino Médio que utilizam a Internet já estão recorrendo a ferramentas de inteligência artificial generativa, como ChatGPT, Copilot e Gemini, para auxiliar em suas pesquisas escolares.

Essa adoção massiva traz outra revelação:  apenas 32% desses alunos afirmam ter recebido qualquer tipo de orientação nas escolas sobre como utilizar essas tecnologias de forma crítica e segura. No Ensino Fundamental, ainda que em menor escala, o uso de IA generativa também aparece entre alunos dos anos iniciais (15%) e finais (39%). Considerando o conjunto de estudantes usuários de Internet dos ensinos Fundamental e Médio, a proporção atinge 37%. Entre eles, apenas 19% afirmam ter sido instruídos por professores sobre como aplicar a tecnologia em atividades de aprendizagem.

A pesquisa TIC Educação 2024 também investigou, pela primeira vez, os recursos adotados pelos estudantes na realização de pesquisas escolares. 72% mencionaram canais e aplicativos de vídeo como fontes de informação, praticamente, a mesma porcentagem dos que recorrem a sites de busca (74%).

Essas estatísticas não apenas validam o uso da tecnologia e a onipresença da IA no dia a dia dos estudantes, também revelam uma desconexão entre a prática dos estudantes e a mediação pedagógica oferecida pelas instituições de ensino. Situação ainda mais delicada quando consideramos que, embora 54% dos professores tenham feito formação em tecnologias digitais, apenas 59% participaram de cursos sobre uso de IA em atividades educacionais, uma lacuna.na formação docente que precisa ser corrigida.

A ausência de orientação pedagógica não significa que os alunos deixarão de usar essas ferramentas; significa que o farão sem o discernimento necessário, sem a capacidade de avaliar a veracidade das informações, de identificar vieses ou de compreender as implicações éticas do uso da IA. Alexandre Barbosa, gerente do Cetic.br | NIC.br, ressalta essa questão ao ponderar que “a IA generativa já é uma realidade para mais de dois terços dos alunos do Ensino Médio, mas essa adoção ainda carece de mediação pedagógica estruturada para o uso crítico”.

Os dados da TIC Educação 2024 nos apresentam um retrato complexo e multifacetado da educação brasileira na era digital. Mas é preciso entender que desafios também significam oportunidades: de investimentos na formação continuada de professores, de integração da educação digital e midiática no currículo escolar, além de políticas públicas que ampliem o acesso à infraestrutura e dispositivos tecnológicos, garantindo que nenhum estudante seja abandonado nessa revolução que, vale destacar, não é para o futuro, já acontece agora.

Read more

Não basta a técnica, maturidade comportamental é essencial

O cenário corporativo mudou de forma irreversível: tarefas repetitivas são automatizadas, algoritmos oferecem previsões mais precisas e a tecnologia tornou-se parceira indispensável para os negócios e, claro, para a vida. A inteligência artificial impulsiona essas transformações, influenciando o modo como as empresas se posicionam, redefinindo processos, acelerando análises e ampliando horizontes de produtividade tanto para empregadores quanto para funcionários. Diante desse cenário, duas constatações: a primeira, que é um caminho sem volta. IA, robótica e automação de processos substituem cada vez mais funções repetitivas e operacionais, garantindo que a “máquina” continue funcionando; a segunda é que essa mesma automação exige que os profissionais desenvolvam competências mais analíticas, criativas e estratégicas.

 

O Relatório sobre o Futuro dos Empregos 2025, do Fórum Econômico Mundial, traz dados sobre as transformações para o mercado global nos próximos cincos anos, impulsionadas por tecnologias emergentes, mudanças demográficas e desafios econômicos e geopolíticos. Segundo o estudo, embora competências tecnológicas como inteligência artificial e Big Data estejam entre as que mais crescem em relevância, são as habilidades humanas, como pensamento analítico, resiliência, flexibilidade, colaboração e liderança, que permanecem essenciais para o futuro do trabalho.

 

Outro levantamento, desta vez do LinkedIn, também aponta esse caminho e ressalta que o equilíbrio entre hard skills e soft skills é a chave para o sucesso profissional e organizacional. As habilidades em alta listadas pela plataforma incluem tanto técnicas, como inteligência artificial, análise estatística e automação de processos quanto comportamentais, como comunicação, visão e liderança estratégica, resolução colaborativa de problemas e gestão de relacionamentos.

 

E vamos a mais estudos. O mais recente, conduzido pelo 6º Observatório de Carreiras e Mercado, da PUCPR Carreiras, aponta que 50% das demissões em 2024 foram causadas por questões comportamentais e não por deficiências técnicas. Os outros 50% se dividiram entre automação das atividades (25%) e redução de custos/cortes de despesas (25%). O mesmo levantamento destaca ainda que 70% das contratações malsucedidas tiveram origem em falhas de comportamento. E os gargalos estão exatamente nas dificuldades de comunicação, falta de adaptabilidade, baixa inteligência emocional ou ausência de comprometimento.

 

O que esses números dizem? Exatamente o que está diante de nós: técnica se aprende, se adquire. E isso ocorre por uma necessidade natural de uma sociedade e um mercado em constante transformação e crescimento, por isso tem o seu valor. Mas não basta só a técnica; é preciso maturidade comportamental para aplicá-la em contextos reais. É aí onde entram as habilidades socioemocionais, que exigem desenvolvimento pessoal contínuo e intencional. Parece óbvio dizer (e reconhecer) que tudo é uma questão de equilíbrio, de saber combinar o uso da tecnologia como aliada, permitindo que nos concentremos no que nenhuma máquina pode replicar:  empatia, vínculos, administração do tempo, compreensão do impacto humano de cada decisão, inspiração e condução de pessoas rumo a um propósito, comunicação assertiva, entre outras competências que valorizam a técnica sem perder a essência humana.

 

Fontes: The Future of Jobs Report 2025 (weforum.org); Habilidades em Alta em 2025 (Linkedin); 6º Observatório de Carreiras e Mercado(PUCPR-Carreiras)

 

Read more

Senado aprova pena maior para crime com uso de IA e deepfake contra a mulher

O Senado Federal aprovou o PL 370/2024, que aumenta a pena para o crime de violência psicológica contra a mulher quando este é cometido com o uso de inteligência artificial ou outras tecnologias que alterem a imagem ou a voz da vítima. A proposta, de autoria da deputada Jandira Feghali e relatada pela senadora Daniella Ribeiro, segue agora para sanção presidencial. Com a nova regra, a pena de reclusão de seis meses a dois anos, além de multa, será aumentada da metade se o crime envolver o uso dessas tecnologias.

 

A medida responde a uma realidade alarmante: a crescente utilização de tecnologias como o deepfake — técnica que, por meio de IA, manipula vídeos e áudios para simular, com alto grau de verossimilhança, declarações e ações que jamais ocorreram — com fins ofensivos, especialmente direcionados a mulheres.

 

Dados citados pela senadora Eliziane Gama, mostram que 96% das imagens manipuladas com essa tecnologia envolvem mulheres. Ela também afirmou que pouco mais de 24% das brasileiras relataram ter sofrido algum tipo de violência no ano de 2024.

 

Além do PL 370/2024, o Senado também debateu e aprovou o Projeto de Lei 1.238/2024, de autoria do senador Vanderlan Cardoso, que trata do chamado “estupro virtual”. A proposta visa criminalizar atos de estupro mesmo sem contato físico direto, incluindo aqueles realizados por meios digitais. A pena básica para o estupro virtual poderá variar de seis a dez anos, podendo chegar a até 30 anos nos casos com agravantes.

 

O desafio da proteção da mulher na era da manipulação digital

 

A violência psicológica contra a mulher, já tipificada no Código Penal, ganha novas camadas de complexidade com o avanço da tecnologia. A manipulação de conteúdos audiovisuais, facilitada por ferramentas de IA generativa, tem sido utilizada como instrumento de humilhação, chantagem, ridicularização e controle — práticas que ferem frontalmente a dignidade e a autodeterminação das mulheres. A inclusão do uso de IA como agravante penal reconhece, com precisão, a gravidade ampliada dessas condutas no ambiente digital.

 

Do ponto de vista jurídico, a inovação legislativa tem méritos inegáveis. Em primeiro lugar, confere maior efetividade à proteção assegurada pela Lei Maria da Penha (Lei nº 11.340/2006) e reforça a perspectiva de gênero no enfrentamento da violência online. Em segundo, representa uma resposta legislativa alinhada ao princípio da prevenção geral positiva do Direito Penal: ao elevar a pena, busca-se desencorajar o uso abusivo das tecnologias para fins ilícitos.

 

A discussão e aprovação dessas propostas demonstram uma crescente preocupação do Legislativo com a violência de gênero no contexto digital, bem como um esforço para modernizar a legislação a fim de enfrentar esses novos desafios. É, sem dúvida, um passo importante na construção de um ambiente digital mais seguro, ético e respeitoso. Que essa legislação não seja, como alertou a senadora Eliziane Gama, uma “letra morta”, mas sim um instrumento efetivo de justiça e reparação.

Fonte: Agência Senado

Read more
pixabay

Inteligência Artificial e LGPD: uma reflexão necessária sobre proteção de dados

Nos últimos dias, uma nova febre surgiu nas redes sociais: converter fotos pessoais em versões no estilo dos estúdios Ghibli, com aquele visual inspirado nas animações japonesas. A brincadeira caiu nas graças dos usuários, que ficaram encantados com suas versões em desenho animado. Até aí, tudo bem. Mas dúvidas pairam sobre o que há por trás dessa tendência. Afinal, trata-se de uma imagem sua sendo disponibilizada para uma inteligência artificial, e você não sabe exatamente o que será feito dela além da animação.

 

Abri o artigo com esse exemplo para introduzir a matéria “Do ChatGPT ao Grok, nenhuma IA cumpre exigências mínimas da lei brasileira de proteção de dados”, publicada na edição de sexta-feira (03) do jornal O Globo. O texto traz, com exclusividade, informações sobre a pesquisa do Centro de Tecnologia e Sociedade da FGV Direito Rio (CTS-FGV), que revela o não cumprimento das exigências da Lei Geral de Proteção de Dados (LGPD – Lei nº 13.709/2018) pelas sete plataformas de inteligência artificial mais populares no Brasil: ChatGPT, Copilot, Gemini, Claude, Grok, DeepSeek e Meta AI.

 

Segundo a matéria, foram analisados quatorze critérios, e o resultado mostra que nenhuma das plataformas atende integralmente às exigências da lei. Até mesmo requisitos básicos, como a disponibilização da política de privacidade em português e a comunicação clara dos direitos dos titulares de dados, são negligenciados por boa parte dessas tecnologias. O cenário varia do “baixo ao assustador”, conforme definiu o coordenador do estudo, professor Luca Belli.

 

A LGPD foi usada como referência para estabelecer os padrões mínimos que deveriam ser cumpridos. Também foram consultados documentos complementares, como o Guia de Segurança da Informação para Agentes de Tratamento de Pequeno Porte, publicado pela ANPD em 2021, considerado parâmetro básico de boas práticas.

 

A pesquisa da FGV evidencia uma significativa lacuna entre a operação dessas plataformas de IA e os requisitos legais previstos na LGPD, que, vale destacar, estabelece princípios essenciais para o tratamento de dados pessoais no Brasil. Quando uma plataforma omite informações sobre quem é o controlador dos dados, como eles são tratados e para onde são transferidos, compromete-se não apenas a transparência, mas a própria eficácia da lei. Essa falta de conformidade pode expor tanto as empresas quanto os usuários a riscos legais e de privacidade. Temos aí um problema sério: estamos permitindo que tecnologias avancem sem o devido respeito às garantias fundamentais de privacidade e proteção de dados.

 

Segundo a matéria, a FGV continuará a pesquisa, agora avaliando obrigações mais complexas da LGPD, relacionadas à transparência em decisões automatizadas. Espera-se, portanto, que os resultados possam fomentar discussões e, potencialmente, levar a uma maior atenção regulatória sobre a conformidade das plataformas de IA com a legislação brasileira.

 

Mas, além de avanços regulatórios e de medidas que garantam a segurança dos dados pessoais, é essencial insistir em educação digital, conscientizando a população sobre a importância de proteger seus dados, ampliando a compreensão sobre os riscos da coleta massiva de informações e a importância da privacidade como pilar da cidadania.

Read more

Brasil não avança na implementação do Plano Brasileiro de Inteligência Artificial

Com investimento previsto de R$ 23 bilhões em quatro anos (2024-2028), o Plano Brasileiro de Inteligência Artificial (PBIA), lançado em julho do ano passado durante a 5ª Conferência Nacional de Ciência, Tecnologia e Inovação, ainda não saiu do papel.  O projeto do governo federal tem como objetivo transformar o país em referência mundial em inovação e eficiência no uso da inteligência artificial, especialmente no setor público. No entanto, a inércia na implementação do plano gera preocupações sobre a capacidade do Brasil de acompanhar o ritmo acelerado da evolução da IA.

 

Para contextualizar o leitor, o PBIA é coordenado pelo Ministério da Ciência, Tecnologia e Inovação (MCTI), e busca desenvolver soluções em IA que melhorem a qualidade de vida da população, otimizando a entrega de serviços públicos e promovendo a inclusão social em diversas áreas. Para alcançar esses objetivos, o plano prevê a criação de um supercomputador de alta performance, essencial para o processamento de grandes volumes de dados e o desenvolvimento de algoritmos avançados de IA.

 

“A inteligência artificial representa uma verdadeira revolução tecnológica, e o Brasil precisa estar na vanguarda desse movimento. O PBIA, juntamente com iniciativas como o Instituto de Inteligência Artificial do Laboratório Nacional de Computação Científica (LNCC), visa garantir que o país seja protagonista nesse cenário global, gerando empregos, promovendo a inovação e construindo um futuro mais próspero para todos”, afirmou, na ocasião, a ministra de Ciência, Tecnologia e Inovação, Luciana Santos.

 

Contudo, o plano permanece estagnado, como observa Sílvio Meira, professor, pensador, empreendedor e um dos maiores especialistas em inovação do Brasil, em entrevista ao CDemPauta, do portal Convergência Digital, na última quarta-feira, 19 de março. Durante a conversa sobre “IA: os desafios da tecnologia e o papel do Brasil” (assista aqui), Meira ressaltou a lentidão na execução do projeto.

 

“Em agosto do ano passado, a gente publicou o Plano Brasileiro de Inteligência Artificial. Estamos em março e, até agora, não começamos a investir no plano. O plano é bom, razoável para o Brasil. É espetacular se considerarmos que não tínhamos nenhum plano e agora temos um. O que precisamos é tirá-lo do papel”, afirmou Meira, ressaltando que desde o lançamento do plano muita coisa mudou no mundo da IA.

 

“Quando aquele plano foi feito, DeepSeek não estava na cabeça de absolutamente ninguém que sentou lá para conversar. Qwen não estava lá, o mundo de agente de Inteligência Artificial em rede também não estava lá, o mundo de aplicações que a gente viu se tornar viável também não estava. Então, se a gente não começar a investir imediatamente naquele plano, a gente tem que refazer o plano imediatamente também”.

 

A entrevista de Sílvio Meira destaca a urgência e a complexidade do desafio enfrentado pelo Brasil na área da IA. O Plano Brasileiro de Inteligência Artificial representa uma oportunidade única para o país se posicionar como líder global em inovação. Mas para isso, é necessário que o plano avance do papel para a prática.

Read more

Tecnologia, habilidades humanas e o futuro dos empregos até 2030

O Relatório sobre o Futuro dos Empregos 2025, divulgado pelo Fórum Econômico Mundial revela que as mudanças no mercado de trabalho equivalerão a 22% dos empregos até 2030, com a criação de 170 milhões de novas funções e a eliminação de outras 92 milhões, resultando em um aumento líquido de 78 milhões de empregos. Os dados foram coletados junto a mais de mil empresas, abrangendo 22 setores e 55 economias e mostram as transformações para o mercado de trabalho global até 2030 impulsionadas por tecnologias emergentes, mudanças demográficas e desafios econômicos e geopolíticos.

 

Além de tendências sobre profissões em ascensão e declínio, o relatório destaca a lacuna de habilidades como o obstáculo mais significativo para a transformação das empresas diante das macrotendências globais. Essa lacuna foi apontada por 63% dos empregadores como a principal barreira para evitar que suas operações se tornem obsoletas.

 

“Embora a demanda de habilidades tecnológicas em IA, big data e redes e segurança cibernética deva ter o maior crescimento, habilidades humanas, como pensamento analítico, habilidades cognitivas, resiliência, liderança e colaboração, continuarão sendo essenciais. Uma combinação de ambos os conjuntos de habilidades será cada vez mais exigida em muitos empregos que estão aumentando”, destaca o relatório.

 

Diante desse cenário, líderes empresariais, formuladores de políticas públicas e gestores precisarão investir de forma estratégica e contínua na capacitação de seus colaboradores, oferecendo programas robustos de reskilling (requalificação) e upskilling (aprimoramento). Essa medida, mais do que uma opção empresarial, é uma necessidade de sobrevivência e competitividade frente ao rápido avanço tecnológico.

 

Tais mudanças também implicam na evolução das políticas corporativas para atender às novas realidades. Gestores precisarão demonstrar maior sensibilidade e habilidade para liderar equipes em cenários de constante mudança, criando ambientes organizacionais resilientes, adaptáveis e que valorizem a colaboração interpessoal e a diversidade de habilidades.

 

Para os governos, fica evidente a necessidade urgente de reformular políticas públicas, especialmente nas áreas de educação e emprego. Investir em capacitação tecnológica é fundamental, mas também será essencial fortalecer os sistemas educacionais para formar cidadãos capazes não apenas de se adaptar aos avanços tecnológicos, de liderá-la de forma ética e sustentável.

 

Outro aspecto relevante são as implicações legais relacionadas à proteção e segurança de dados, especialmente com o avanço da automação e da inteligência artificial. Empresas deverão estar atentas à conformidade regulatória diante das crescentes ameaças cibernéticas, reforçando investimentos em segurança digital e treinamento adequado.

 

Os pontos destacados acima são apenas um pequeno recorte do Relatório sobre o Futuro dos Empregos 2025, elaborado pelo Fórum Econômico Mundial. Além das questões tecnológicas, o relatório aborda desafios geoeconômicos, geopolíticos e demográficos e seu impacto sobre o mercado de trabalho. Também apresenta recomendações práticas para empresas, governos e educadores se prepararem para os empregos do futuro. Entre as principais recomendações está a necessidade de colaboração entre esses atores, visando transições e estratégias de força de trabalho justas e inclusivas, apoiando os trabalhadores durante as transformações, melhorando a qualidade dos empregos e formando pessoas capazes de não apenas se adaptar às mudanças, mas também de liderá-las com ética, criatividade e responsabilidade social.

Leia o relatório completo no site: https://www.weforum.org/publications/the-future-of-jobs-report-2025/

 

———————————————————————————————————-

Campelo Filho é advogado e escreve todos os sábados no jornal e portal O Dia

Acesse: https://portalodia.com/blogs/coluna-campelo-filho

 

Read more
pixabay

A Proteção de Dados e a Privacidade na Era da Hipervigilância Digital

A proteção de dados pessoais entrou para o rol de direitos e garantias fundamentais no Brasil em fevereiro de 2022 por meio da Emenda Constitucional (EC) 115/2022. O texto também conferiu à União a competência exclusiva para legislar sobre o tema, permitindo maior segurança jurídica ao país na aplicação da LGPD.

Eu acompanhei todo esse debate como membro do Conselho Nacional de Proteção de Dados (CNPD), órgão consultivo que integra a estrutura da Autoridade Nacional de Proteção de Dados (ANPD), responsável por implementar e fiscalizar o cumprimento da LGPD no Brasil. Para mim, que sigo estudando e debatendo o assunto, esse avanço normativo foi uma grande conquista e reflete o reconhecimento da privacidade como um direito fundamental, essencial à dignidade, autonomia e liberdade das pessoas em uma sociedade democrática.

Abordo esse assunto hoje, porque nesta terça-feira, 28, se comemora o Dia Internacional da Proteção de Dados e esse é um tema que nunca deve ser negligenciado, especialmente na atualidade quando vivemos em um mundo cada vez mais conectado e marcado pela hipervigilância digital.

Byung-Chul Han, em A Sociedade da Transparência (2020), ao fazer uma referência a Rousseau e à sua exigência por transparência do coração como sendo um imperativo moral, aduz que a “casa sagrada com cobertura, muros, janelas e portas” é, hoje, de qualquer modo, “transpassada” por “cabos materiais e imateriais” e que desmorona em ruína pelas rachaduras do vento que sopra da comunicação”. Com essa afirmação, Han demonstra a ausência de privacidade no mundo atual, posto “que o vento digital da comunicação e da informação penetra tudo e torna tudo transparente” e que a “iluminação total promete, pois, uma exploração máxima”. (HAN, 2020, p. 103)

O desenvolvimento acelerado da tecnologia – aliado à proliferação da internet, inteligência artificial (IA), algoritmos e Internet das Coisas (IoT) – ampliou  a coleta e o uso de dados pessoais a níveis sem precedentes. Shoshana Zuboff, em A Era do Capitalismo de Vigilância (2019), reforça como a exploração de dados alimenta mercados de “comportamentos futuros”, em que a privacidade é comercializada e controlada. Nesse cenário, a hipervigilância digital exerce uma invasão contínua e abrangente na vida das pessoas, promovendo uma “iluminação total” que desnuda a privacidade, desvelando-a de sua essência ética e moral.

A privacidade, enquanto direito fundamental, enfrenta ameaças crescentes à medida que governos, empresas e outras entidades intensificam a vigilância. O compartilhamento de informações pessoais, antes uma questão restrita à esfera individual, tornou-se uma preocupação global, exigindo debates éticos e legais sobre os limites dessa exposição.

E ainda que os avanços tecnológicos tragam benefícios inegáveis, como inovação e conectividade, é imperativo que o direito à privacidade seja respeitado de forma integral, para que se mantenha eficaz diante de desafios contemporâneos. Isso exige uma abordagem multidimensional, envolvendo não apenas o Estado, mas também a iniciativa privada e a sociedade como um todo.

A pergunta que exsurge, então, é: a privacidade (ou o direito) à privacidade morreu? Será que, nos dias atuais, há espaço para restaurá-la como um pilar essencial de uma sociedade democrática e ética? Difícil responder. E mais do que reflexões filosóficas, como as de Han e Zuboff, precisamos de ações concretas na regulamentação do uso de tecnologias, na promoção da educação digital e na conscientização sobre os direitos individuais e coletivos. Quem sabe assim, conseguiremos equilibrar inovação tecnológica com proteção e privacidade de dados e preservação da dignidade humana.

Read more

Inteligência Artificial no Judiciário: Uso ainda é raro e eventual, mas cresce interesse pela tecnologia.

A pesquisa “O uso da Inteligência Artificial Generativa no Poder Judiciário”, do Conselho Nacional de Justiça (CNJ), revela que quase metade dos servidores e magistrados que responderam ao diagnóstico sobre Inteligência Artificial (IA) generativa nos tribunais utiliza a ferramenta, embora mais de 70% o façam “raramente” ou “eventualmente”.

Foram ouvidos 1.681 magistrados e 16.844 servidores. Segundo o relatório, o ChatGPT, da Open AI, é a ferramenta mais utilizada (96% entre magistrados e 94% entre servidores). O Copilot, da Microsoft, e o Gemini, do Google, também são populares. O estudo revelou ainda que há uma predominância pelo uso de versões livres/abertas, dado que, na visão dos pesquisadores, é preocupante, uma vez que podem conter imprecisões e erros.

Cerca de 27% dos magistrados e 31% dos servidores utilizam a IA generativa para tarefas profissionais. O estudo identificou também interesse expressivo entre aqueles que não a empregam em suas funções. Em ambos os grupos, a maioria manifestou elevada crença da Inteligência Artificial (IA) generativa para apoio à atividade judicial, sobretudo em tarefas que envolvem tecnologia da informação, estatística ou ciência de dados.

A falta de familiaridade com a Inteligência Artificial foi uma das principais dificuldades identificadas na pesquisa, daí, um interesse massivo entre os magistrados e servidores em treinamento e capacitação na área.

A pesquisa foi apresentada durante uma audiência pública realizada pelo CNJ em Brasília, que aconteceu no período de 25 a 27 de setembro, para debater e colher sugestões que possam contribuir com a regulamentação do uso de inteligência artificial no Poder Judiciário.

 

Advogado e piauiense participa da audiência

 

A audiência pública do CNJ para discutir o uso da Inteligência no Judiciário reuniu especialistas, representantes da sociedade e das comunidades jurídicas e acadêmicas habilitados para discutir o tema, entre eles, o professor e advogado piauiense Berto Igor Caballero Cuellar, pesquisador do Laboratório de Inteligência Artificial do IDP.

“Com o avanço das Ias generativas, o CNJ percebeu a necessidade de uma nova regulamentação e abriu uma minuta para consulta pública. Fui selecionado como pesquisador para contribuir com esse debate, representando o Laboratório de Governança e Regulamentação de IA do IDP (LIA), onde faço meu doutorado”, disse Caballero.

O professor e pesquisador defendeu classificar como de alto risco a produção de textos de apoio para facilitar a confecção de atos judiciais, desde que a supervisão e a versão final do documento sejam realizadas pelo magistrado, bem como as decisões acerca das preliminares e questões de mérito. Na minuta, essa solução é considerada de baixo risco.

As contribuições colhidas durante os três dias do evento serão utilizadas na atualização da Resolução CNJ 332/2020, que dispõe sobre a ética, a transparência e a governança na produção e no uso de IA nas instituições da Justiça brasileira.

 

“Uso da IA no Judiciário é uma questão de sobrevivência”

O ministro Luís Roberto Barroso, presidente do CNJ e do STF, participou do primeiro dia da audiência e disse que a utilização da IA no Judiciário é uma questão de sobrevivência, diante da quantidade de processos judiciais que correm na Justiça brasileira.

“A preocupação que temos de regular o uso da IA no sistema de Justiça se dá porque estamos utilizando a IA à frente de todos. Nenhum país do mundo está investindo tanto tempo e energia em construir ferramentas que permitam sua utilização pelo Poder Judiciário. Mas nenhum lugar do mundo tem 83,8 milhões de processos em tramitação. Para nós, a IA é uma questão de sobrevivência para o funcionamento adequado do Judiciário, produzindo decisões a tempo e a hora”, diz Barroso.

O ministro comparou o impacto da IA a grandes avanços históricos, como a descoberta da eletricidade e inovações médicas. No entanto, alertou para os impactos no mercado de trabalho, mencionando a necessidade de redes de proteção social e de adaptação a novas áreas. Barroso também defendeu que a regulação da IA deve garantir direitos fundamentais como privacidade, liberdade de expressão e democracia, além de assegurar transparência e supervisão humana. Ele ressaltou que, embora a regulação seja necessária, ela não deve impedir avanços ou fechar mercados, mas sim garantir que a transformação digital seja inclusiva, ética e eficiente, sempre pautada em valores como justiça e dignidade humana.

Fonte: CNJ

Pesquisa: https://www.cnj.jus.br/wp-content/uploads/2024/09/cnj-relatorio-de-pesquisa-iag-pj.pdf

Read more

ANPD determina suspensão cautelar do tratamento de dados pessoais para treinamento da IA da Meta

A Autoridade Nacional de Proteção de Dados (ANPD) emitiu Medida Preventiva determinando a imediata suspensão, no Brasil, da vigência da nova política de privacidade da empresa Meta, que autorizava o uso de dados pessoais publicados em suas plataformas para fins de treinamento de sistemas de inteligência artificial (IA). O descumprimento pela empresa pode gerar multa diária de R$ 50 mil.

A medida se refere à atualização na política de privacidade da empresa que entrou em vigor no último dia 26 de junho. A nova política se aplica aos “Produtos da Meta”, que incluem o Facebook, o Messenger e o Instagram, e permite que a empresa utilize informações publicamente disponíveis e conteúdos compartilhados por usuários de suas plataformas para treinamento e aperfeiçoamento de sistemas de IA generativa. Tal tratamento pode impactar número substancial de pessoas, já que, no Brasil, somente o Facebook possui cerca de 102 milhões de usuários ativos.

A ANPD tomou conhecimento do caso e instaurou processo de fiscalização de ofício – ou seja, sem provocação de terceiros – em função de indícios de violações à Lei Geral de Proteção de Dados (LGPD). Após análise preliminar, diante dos riscos de dano grave e de difícil reparação aos usuários, a Autoridade determinou cautelarmente a suspensão da política de privacidade e da operação de tratamento.

Nos termos do Voto nº 11/2024/DIR-MW/CD, aprovado pelo Conselho Diretor em Circuito Deliberativo, entendeu-se estarem presentes constatações preliminares suficientes para expedição da Medida Preventiva. São elas: uso de hipótese legal inadequada para o tratamento de dados pessoais; falta de divulgação de informações claras, precisas e facilmente acessíveis sobre a alteração da política de privacidade e sobre o tratamento realizado; limitações excessivas ao exercício dos direitos dos titulares; e tratamento de dados pessoais de crianças e adolescentes sem as devidas salvaguardas.

A ANPD avaliou que a empresa não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa. A Autoridade averiguou, ainda, que, embora os usuários pudessem se opor ao tratamento de dados pessoais, havia obstáculos excessivos e não justificados ao acesso às informações e ao exercício desse direito.

Além disso, a Autarquia considerou inadequada, em análise preliminar, a hipótese legal usada para justificar o tratamento de dados pessoais – o legítimo interesse da empresa. Isso porque tal hipótese não pode ser usada quando houver tratamento de dados pessoais sensíveis (isto é, com maior risco discriminatório). Além disso, é necessária a consideração das legítimas expectativas e a observância dos princípios da finalidade e da necessidade.

No caso concreto, a ANPD considerou que as informações disponíveis nas plataformas da Meta são, em geral, compartilhadas pelos titulares para relacionamento com amigos, comunidade próxima ou empresas de interesse. Diante disso, em análise preliminar, não haveria necessariamente a expectativa de que todas essas informações – inclusive as compartilhadas muitos anos atrás – fossem utilizadas para treinar sistemas de IA, que sequer estavam implementados quando as informações foram compartilhadas.

Por fim, verificou-se que dados pessoais de crianças e adolescentes, como fotos, vídeos e postagens, também poderiam ser coletados e utilizados para treinar os sistemas de IA da Meta. Segundo a LGPD, o tratamento de dados de crianças e de adolescentes deve ser sempre realizado em seu melhor interesse, com a adoção de salvaguardas e medidas de mitigação de risco, o que não foi verificado no âmbito da análise preliminar.

Entenda a medida

A Medida Preventiva é um instrumento de competência dos Diretores da ANPD, utilizada para garantir a efetividade de atuação da Autoridade com vistas à proteção dos direitos dos titulares. Serve, ainda, para evitar a ocorrência de danos graves e irreparáveis ou de difícil reparação para os titulares de dados pessoais.

A Medida Preventiva pode, em casos urgentes, ser adotada inclusive sem prévia manifestação do interessado, e pode ser acompanhada de multa diária pelo descumprimento da obrigação imposta.

Nas medidas preventivas, as condutas das empresas são avaliadas de forma preliminar, como ocorre nos processos de natureza cautelar. A avaliação detalhada das condutas é realizada posteriormente no âmbito do processo fiscalizatório instaurado para este fim, a ser conduzido pela área técnica da ANPD. (Fonte: ANPD)

Read more

ANPD determina suspensão cautelar do tratamento de dados pessoais para treinamento da IA da Meta

A Autoridade Nacional de Proteção de Dados (ANPD) emitiu Medida Preventiva determinando a imediata suspensão, no Brasil, da vigência da nova política de privacidade da empresa Meta, que autorizava o uso de dados pessoais publicados em suas plataformas para fins de treinamento de sistemas de inteligência artificial (IA). O descumprimento pela empresa pode gerar multa diária de R$ 50 mil.

A medida se refere à atualização na política de privacidade da empresa que entrou em vigor no último dia 26 de junho. A nova política se aplica aos “Produtos da Meta”, que incluem o Facebook, o Messenger e o Instagram, e permite que a empresa utilize informações publicamente disponíveis e conteúdos compartilhados por usuários de suas plataformas para treinamento e aperfeiçoamento de sistemas de IA generativa. Tal tratamento pode impactar número substancial de pessoas, já que, no Brasil, somente o Facebook possui cerca de 102 milhões de usuários ativos.

A ANPD tomou conhecimento do caso e instaurou processo de fiscalização de ofício – ou seja, sem provocação de terceiros – em função de indícios de violações à Lei Geral de Proteção de Dados (LGPD). Após análise preliminar, diante dos riscos de dano grave e de difícil reparação aos usuários, a Autoridade determinou cautelarmente a suspensão da política de privacidade e da operação de tratamento.

Nos termos do Voto nº 11/2024/DIR-MW/CD, aprovado pelo Conselho Diretor em Circuito Deliberativo, entendeu-se estarem presentes constatações preliminares suficientes para expedição da Medida Preventiva. São elas: uso de hipótese legal inadequada para o tratamento de dados pessoais; falta de divulgação de informações claras, precisas e facilmente acessíveis sobre a alteração da política de privacidade e sobre o tratamento realizado; limitações excessivas ao exercício dos direitos dos titulares; e tratamento de dados pessoais de crianças e adolescentes sem as devidas salvaguardas.

A ANPD avaliou que a empresa não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa. A Autoridade averiguou, ainda, que, embora os usuários pudessem se opor ao tratamento de dados pessoais, havia obstáculos excessivos e não justificados ao acesso às informações e ao exercício desse direito.

Além disso, a Autarquia considerou inadequada, em análise preliminar, a hipótese legal usada para justificar o tratamento de dados pessoais – o legítimo interesse da empresa. Isso porque tal hipótese não pode ser usada quando houver tratamento de dados pessoais sensíveis (isto é, com maior risco discriminatório). Além disso, é necessária a consideração das legítimas expectativas e a observância dos princípios da finalidade e da necessidade.

No caso concreto, a ANPD considerou que as informações disponíveis nas plataformas da Meta são, em geral, compartilhadas pelos titulares para relacionamento com amigos, comunidade próxima ou empresas de interesse. Diante disso, em análise preliminar, não haveria necessariamente a expectativa de que todas essas informações – inclusive as compartilhadas muitos anos atrás – fossem utilizadas para treinar sistemas de IA, que sequer estavam implementados quando as informações foram compartilhadas.

Por fim, verificou-se que dados pessoais de crianças e adolescentes, como fotos, vídeos e postagens, também poderiam ser coletados e utilizados para treinar os sistemas de IA da Meta. Segundo a LGPD, o tratamento de dados de crianças e de adolescentes deve ser sempre realizado em seu melhor interesse, com a adoção de salvaguardas e medidas de mitigação de risco, o que não foi verificado no âmbito da análise preliminar.

Entenda a medida

A Medida Preventiva é um instrumento de competência dos Diretores da ANPD, utilizada para garantir a efetividade de atuação da Autoridade com vistas à proteção dos direitos dos titulares. Serve, ainda, para evitar a ocorrência de danos graves e irreparáveis ou de difícil reparação para os titulares de dados pessoais.

A Medida Preventiva pode, em casos urgentes, ser adotada inclusive sem prévia manifestação do interessado, e pode ser acompanhada de multa diária pelo descumprimento da obrigação imposta.

Nas medidas preventivas, as condutas das empresas são avaliadas de forma preliminar, como ocorre nos processos de natureza cautelar. A avaliação detalhada das condutas é realizada posteriormente no âmbito do processo fiscalizatório instaurado para este fim, a ser conduzido pela área técnica da ANPD.

(Fonte: ANPD)

Read more