Especialistas em TI e ESG discutem o impacto social da IA diante da falta de regulamentação no Brasil
A inteligência artificial é uma ferramenta poderosa: pode agilizar processos, encurtar prazos e distâncias, mas também carrega uma série de desafios que são amplificados nos países onde ainda não há regras que normatizem seu uso, como o Brasil. Além da preocupação com a disseminação de deepfakes; violação dos dados pessoais e dos direitos a propriedade intelectual, especialistas destacam a necessidade de se considerar o impacto dessa tecnologia na perpetuação de preconceitos.
O especialista em TI e CTO da Breven Law, Ademir Mazer, explica que os algoritmos são criados e treinados com base em um grande conjunto de dados que podem conter vieses históricos ou culturais, já que são alimentados por pessoas. “As grandes empresas de IA já adotam algumas travas que impedem, por exemplo, o tratamento de assuntos sensíveis, mas está nas mãos das pessoas orientar os algoritmos com base em aspectos morais, legais e éticos. Isso é indispensável porque as ferramentas tomam decisão através da aprendizagem do que foi dado a elas, se a base de dados não tem qualidade e reproduz preconceitos e informações falsas, a IA reproduzirá esses equívocos”, comenta.
A advogada Maria Heloisa Chiaverini de Melo, mestre em Ciências Sociais e especialista em Compliance, Governança e Direito Digital, entende que um dos principais desafios na implementação de sistemas de IA é o risco social de amplificar discriminações e de reforçar discursos de ódio e intolerância. “Mais do que nunca, a Governança se torna indispensável. Além de um treinamento ético e legal para os colaboradores de uma empresa, é preciso ter uma equipe efetivamente diversa: isso permite identificar e corrigir esses vieses nos estágios iniciais, promovendo sistemas mais justos e equitativos. Pois, da mesma forma que perpetua preconceitos, a IA também pode contribuir para incentivar a diversidade”, comenta.
ESG e Tecnologia
Marcelo Pereira, diretor da BrevenLaw, startup de compliance jurídico, Marcelo Pereira, alerta para o cuidado com o tratamento de dados pessoais. A Lei Geral de Proteção de Dados (LGPD) estabeleceu diretrizes claras para a coleta, armazenamento e tratamento dessas informações. “Mas, quando se trata de IA, a legislação deixa lacunas que podem ser preenchidas por meio de práticas éticas e responsáveis por parte das empresas. É preciso implementar uma governança de algoritmos robusta, que assegure a ética e a qualidade das bases de dados utilizadas”, exemplifica.
A advogada conta que um projeto de lei para regulamentar a IA no Brasil já foi criado e precisa ser discutido e aprovado. “Enquanto isso não acontece, as empresas precisam investir em governança para tentar minimizar os riscos e fortalecer o seu compliance digital para ter tecnologias aderentes às regras futuras”, detalha.
Para não errar
O especialista em TI destaca que os pilares essenciais para o uso responsável da IA são a segurança dos dados; a prevenção da invasão de privacidade no treinamento da IA e observância às leis de proteção da propriedade intelectual e privada. “Diante da falta de legislação específica, esses pilares servem como guia para as empresas no desenvolvimento de tecnologias de IA que não apenas inovem, mas também promovam a justiça, a segurança e o respeito aos direitos humanos e à diversidade. A adoção de avaliações de impacto ético e a colaboração com especialistas em ética da IA são práticas recomendadas para identificar e mitigar riscos”, complementa Mazer.
Potencial a ser explorado
A IA tem o potencial de promover a inclusão e o acesso a serviços e oportunidades para grupos historicamente marginalizados. Tecnologias baseadas em IA podem proporcionar maior independência para pessoas com deficiência, enquanto sistemas de recomendação inteligentes podem oferecer uma gama mais diversa de conteúdos e perspectivas. “Para isso acontecer, é preciso que os desenvolvedores de IA estejam comprometidos com a criação de sistemas transparentes, justos e respeitosos com a diversidade humana. A colaboração entre especialistas em tecnologia, direito e ética será fundamental para construir políticas robustas de governança e navegar por esse território complexo, assegurando que o avanço da IA ocorra de forma alinhada com os valores éticos”, completa a advogada.
Sobre a BrevenLaw
A BrevenLaw é uma startup de compliance jurídico que auxilia as empresas na construção e gestão de governança. Com um corpo jurídico altamente especializado, a BrevenLaw atua como um guia de conformidade em governança e oferece uma série de ferramentas de Inteligência Artificial para otimizar e agilizar o processo de compliance nas empresas.