Por Guilherme Ritis
O avanço acelerado da Inteligência Artificial (IA) transformou a forma como empresas, profissionais e consumidores interagem com serviços digitais. Da saúde ao varejo, do setor público às plataformas online, soluções automatizadas passaram a tomar decisões e executar tarefas antes realizadas apenas por pessoas. Com esse novo cenário, surge uma pergunta essencial: quem responde quando a IA causa um dano?
Esse é hoje um dos temas mais desafiadores do Direito. Isso porque a responsabilização civil tradicional pressupõe a identificação clara de quem provocou o prejuízo. Com a IA, porém, a cadeia envolvida é complexa: desenvolvedores, treinadores de modelos, fornecedores de software, empresas que coletam dados, plataformas intermediárias e até o usuário final podem ter contribuído para o resultado danoso.
Visto isso, importa salientar alguns dos tipos de danos que podem ocorrer, trazendo alguns exemplos que, provavelmente, se tornarão usuais nos próximos anos:
- Danos materiais, como um diagnóstico incorreto emitido por um software médico;
- Danos morais ou à imagem, especialmente em casos de deepfakes, fraudes digitais ou conteúdos que afetem a reputação de pessoas e empresas;
- Violação de dados pessoais, quando sistemas coletam, armazenam ou utilizam informações sensíveis sem autorização; e
- Danos coletivos, como erros sistêmicos em algoritmos utilizados em políticas públicas ou plataformas que atingem milhares de usuários.
Nessas situações, definir o responsável não é simples. A falha pode surgir de um erro de programação, de uma base de dados enviesada, da falta de supervisão humana ou até do uso inadequado pelo próprio usuário. Isso torna o nexo causal, um fator essencial para responsabilização, muito mais difícil de ser comprovado.
O debate jurídico atual gira em torno de qual modelo aplicar: responsabilidade subjetiva (baseada em culpa), objetiva (baseada no risco) ou até um modelo híbrido, inspirado no Direito do Consumidor. Uma via alternativa e que iminentemente será adotada é a de regulamentação específica dos temas de inteligência artificial, já que os institutos atuais do Código Civil não serão suficientes.
Enquanto o contexto jurídico nacional avança nesse debate, especialmente com a perspectiva de atualização legislativa, empresas e profissionais precisam adotar práticas preventivas. Alguns exemplos são a auditorias de algoritmos, políticas claras de uso, transparência sobre dados, contratos bem redigidos e supervisão humana adequada.
A tendência é que, nos próximos anos, a legislação traga caminhos mais certeiros. Até lá, o desafio de equilibrar a inovação tecnológica com a proteção dos direitos das pessoas afetadas por sistemas inteligentes permanece.
A Arnone Advogados acompanha de perto a evolução da inteligência artificial e seus impactos no ambiente jurídico. Nosso escritório está pronto para orientar empresas e profissionais na prevenção de riscos, elaboração de políticas internas, revisão de contratos, análise de responsabilidade e atuação em eventuais disputas decorrentes do uso de IA, oferecendo segurança jurídica em um cenário cada vez mais digital.
Referências bibliográficas:
BRASIL. Lei n. 10.406, de 10 de janeiro de 2002. Institui o Código Civil. Diário Oficial da União: Brasília, DF, 11 jan. 2002. Disponível em: http://www.planalto.gov.br/ccivil_03/leis/2002/l10406.htm. Acesso em: 17 nov. 2025.
CONJUR. Perspectivas sobre a responsabilidade civil do fornecedor de sistema de IA. Disponível em: https://www.conjur.com.br/2025-mar-05/perspectivas-sobre-a-responsabilidade-civil-do-fornecedor-de-sistema-de-ia/. Acesso em: 17 nov. 2025.
MIGALHAS. A responsabilidade civil no uso de Inteligência Artificial: Desafios e perspectivas. Disponível em: https://www.migalhas.com.br/depeso/422333/a-responsabilidade-civil-no-uso-de-inteligencia-artificial. Acesso em: 17 nov. 2025.
Tribunal de Justiça do Distrito Federal e dos Territórios (TJDFT). Teoria do risco-proveito da atividade negocial. Disponível em: https://www.tjdft.jus.br/consultas/jurisprudencia/jurisprudencia-em-temas/cdc-na-visao-do-tjdft-1/principios-do-cdc/teoria-do-risco-proveito-da-atividade. Acesso em: 17 nov. 2025.