
Image By Sean Bernstein, from Unsplash
Mattel e OpenAI Enfrentam Repercussão Negativa por Brinquedos com IA
Defensores dos consumidores estão alertando sobre os riscos apresentados pela nova parceria entre a Mattel e a OpenAI para criar brinquedos alimentados por IA.
Está com pressa? Aqui estão os fatos rápidos:
- Mattel e OpenAI planejam lançar brinquedos alimentados por IA até 2026.
- Defensores do consumidor alertam sobre possíveis danos ao desenvolvimento das crianças.
- Os brinquedos podem processar os dados de voz e os padrões comportamentais das crianças.
O co-presidente da Public Citizen, Robert Weissman, exige mais transparência da Mattel e que revelem os detalhes sobre seu próximo produto.
“Dotar brinquedos com vozes que parecem humanas e que são capazes de se engajar em conversas semelhantes às humanas corre o risco de causar danos reais às crianças”, disse Weissman, conforme relatado inicialmente por Ars Technica.
Ele teme que esses brinquedos possam prejudicar o desenvolvimento social, interferir nas amizades da vida real e causar danos psicológicos a longo prazo. “A Mattel não deve se aproveitar da confiança dos pais para conduzir um experimento social imprudente em nossas crianças, vendendo brinquedos que incorporam a IA”, acrescentou Weissman.
O primeiro produto da parceria não terá como alvo crianças menores de 13 anos, de acordo com uma fonte anônima do Axios, o que a Ars Technica sugere ser provavelmente devido às restrições de idade da OpenAI. Críticos argumentam que a restrição de idade não oferece proteção suficiente.
A OpenAI recusou-se a comentar, enquanto a Mattel ainda não respondeu ao questionamento da Ars Technica. O primeiro produto da parceria será anunciado este ano e lançado em 2026, de acordo com o comunicado de imprensa da Mattel, que afirma que a colaboração apoiará produtos e experiências alimentados por IA, baseados nas marcas da Mattel.
No entanto, críticos como a executiva de tecnologia Varundeep Kaur e o especialista em segurança digital Adam Dodge alertam que os brinquedos com IA podem expor as crianças a violações de privacidade, conteúdo tendencioso ou respostas confusas de chatbot. Kaur também destacou o perigo das alucinações de IA, dizendo que esses brinquedos poderiam dar “respostas inapropriadas ou bizarras” que são perturbadoras para as crianças.
Ars Technica relata que críticos como Varundeep Kaur e Adam Dodge, que são respectivamente uma executiva de tecnologia e um especialista em segurança digital, expressam preocupações de que os brinquedos com IA possam levar a violações de privacidade, entrega de conteúdo tendencioso e respostas confusas de chatbot.
Kaur destacou o risco de alucinações de IA, que poderiam fazer com que os brinquedos gerassem respostas perturbadoras ou estranhas que poderiam perturbar as crianças. Ele também acrescentou que outros riscos podem estar ligados à gravação de “dados de voz, padrões comportamentais e preferências pessoais” pelos brinquedos.
Ars Technica relata que Dodge adicionou, “imprevisível, bajulador e viciante”, e alertou sobre os piores cenários, como brinquedos promovendo auto-mutilação. Ambos os especialistas pediram controles parentais rigorosos, transparência e auditorias independentes antes de qualquer lançamento.
De fato, pesquisadores do MIT emitiram um alerta separado, mas relacionado, sobre a natureza viciante dos companheiros de IA.
A Mattel enfrentou reações semelhantes antes. Em 2015, a empresa lançou a “Hello Barbie”, uma boneca conectada por Wi-Fi que ouvia as crianças e respondia usando IA baseada em nuvem, conforme relatado pela Forbes.
Críticos da época, incluindo o especialista em segurança cibernética Joseph Steinberg, alertaram que o brinquedo representava uma enorme ameaça à privacidade. A Hello Barbie gravava e enviava as conversas das crianças para um servidor operado por um terceiro, o ToyTalk, que compartilhava os dados com fornecedores para aprimorar os sistemas de IA.
Steinberg ressaltou que as crianças frequentemente confidenciam pensamentos profundamente pessoais para suas bonecas – às vezes discutindo medos, problemas familiares ou problemas escolares. “Você gostaria que as gravações de suas íntimas conversas infantis persistissem nas mãos de partes desconhecidas?” ele perguntou, conforme relatado pela Forbes.
Especialistas em privacidade argumentam que, a menos que as empresas ofereçam avisos em linguagem clara nas embalagens, muitos pais irão, sem saber, expor a vida privada de seus filhos às corporações, sob o disfarce de conveniência e entretenimento.