A incorporação de inteligência artificial em brinquedos infantis inaugura uma nova etapa na relação entre tecnologia e infância. Se antes os bonecos apenas reproduziam falas pré-programadas, agora interagem em tempo real, criando diálogos personalizados e até modelando comportamentos emocionais. Essa evolução, vista em iniciativas como a parceria da Mattel com a OpenAI exige atenção: sob a promessa de inovação educativa, os brinquedos passam a capturar voz, emoções e padrões de conduta das crianças, transformando esses dados em ativos comerciais.
Do ponto de vista jurídico, surgem riscos. A coleta e tratamento de dados sensíveis por brinquedos inteligentes colocam em tensão direta o Estatuto da Criança e do Adolescente (ECA), que garante proteção integral e prioridade absoluta, e a Lei Geral de Proteção de Dados (LGPD), que veda o uso de informações de menores sem consentimento claro e específico dos responsáveis.
Além disso, práticas de coleta oculta ou manipulação emocional configuram potenciais violações do Código de Defesa do Consumidor, que proíbe publicidade abusiva dirigida a crianças.
LEIA MAIS: Por que as ações trabalhistas voltaram a crescer?
Outro aspecto crítico é a responsabilidade civil. Se um brinquedo equipado com IA reforça estereótipos, transmite informações incorretas ou influencia decisões, há um vácuo regulatório sobre quem deve responder: o fabricante do hardware, o desenvolvedor do software ou ambos solidariamente. O caso europeu da boneca My Friend Cayla, banida por violar o direito à privacidade infantil ao transmitir conversas para servidores externos, ilustra como a falta de controles pode resultar em litígios e danos reputacionais irreparáveis
No campo da publicidade, o risco é ainda mais sensível. Brinquedos conectados podem atuar como canais velados de marketing, sugerindo produtos ou moldando preferências a partir de dados coletados em conversas cotidianas. O Guia de Boas Práticas para Publicidade Infantil Online, elaborado pelo CONAR em parceria com o Google, estabelece que a comunicação voltada a crianças deve ser clara, não induzir ao compartilhamento de dados e não explorar sua vulnerabilidade. A ausência desses cuidados pode configurar publicidade abusiva, sujeita a sanções administrativas e judiciais.
Outro ponto central é a discussão sobre governança algorítmica. Conforme apontado em relatórios acadêmicos e de advocacy, brinquedos de IA podem embutir vieses discriminatórios, reproduzir estereótipos ou reforçar padrões culturais específicos. Além disso, é preciso considerar o impacto social e emocional de longo prazo. A criação de vínculos com objetos que respondem sempre de forma positiva ou personalizada pode influenciar a formação da identidade e das relações interpessoais.
VEJA TAMBÉM: IA e Direito do Consumidor
O uso de algoritmos sem transparência para pais ou órgãos reguladores, levanta a necessidade de auditorias independentes e certificações obrigatórias de segurança digital, nos moldes de normas já aplicadas a brinquedos físicos em relação a riscos mecânicos ou químicos.
Por fim, a questão da supervisão parental também ganha destaque. O guia do CONAR recomenda que a participação dos pais seja fomentada em toda interação online envolvendo crianças. Brinquedos de IA, no entanto, tendem a criar ambientes autônomos de interação, nos quais o adulto pode ser excluído do circuito de controle. Isso fragiliza o dever de proteção e aumenta a responsabilidade das empresas em estabelecer mecanismos de monitoramento acessíveis, relatórios transparentes e opções de limitação de funcionalidades.
A chegada dos brinquedos inteligentes marca uma etapa de transformação no modo como tecnologia e infância se encontram. Entre possibilidades de aprendizado mais interativo e a necessidade de regras claras para uso responsável, abre-se um espaço importante para inovação acompanhada de proteção jurídica, garantindo que o brincar continue sendo um exercício de criatividade e desenvolvimento seguro.