sobregrupos de trabalhoeventos
publicações
notíciasrevistaswhitepaperscanal abranetmídia
contato
  • Fone (11) 3078-3866
  • WhatsApp +55 11 94528-2739
  • E-mail sec@abranet.org.br
Rua MMDC, 450, cj 304, Butantã, São Paulo-SP, 05510-000
Conheça nosso podcast Pensai!
#005 - Marketing e IA: conversa com Thiago Gonçalves, Country Manager da Blip México
#005 - Marketing e IA: conversa com Thiago Gonçalves, Country Manager ...
01h00/30 abr 2025
/
YouTubeSpotifyInstagram
Copyright © 2014 - 2025
Abranet - Associação Brasileira de Internet
Produzido e gerenciado por Editora Convergência Digital / Site criado pela SENNO
  1. home
  2. publicações
  3. notícias
  4. E se seu clone digital já estivesse vivendo por você?

E se seu clone digital já estivesse vivendo por você?

10 de setembro de 2025

por Cristina De Luca | Publisher The Shift

E se seu clone digital já estivesse vivendo por você?

A identidade sempre foi uma construção instável entre percepção, expressão e contexto. Na era da IA generativa, torna-se também simulada, escalável e replicável. O que antes era reflexo vira projeção computacional; o que era subjetividade vira ativo sintético. Já não somos apenas representados por dados: somos performados por sistemas que aprendem a nos imitar — e, cada vez mais, a agir em nosso lugar.

Sósias (ou clones) digitais — avatares hiper-realistas construídos a partir de textos, vozes, expressões e padrões emocionais — já existem em escala comercial. Empresas treinam clones de seus melhores atendentes para escalar empatia automatizada; influenciadores replicam sua imagem em bots 24×7; startups oferecem griefbots para conversas póstumas. A promessa é produtividade, memória, eficiência. O que está em jogo, porém, é a autoria da nossa própria identidade.

Investigamos a emergência dos sósias digitais e como desafiam autenticidade, autonomia e autoria. É uma transição silenciosa, porém profunda: da representação à performatividade algorítmica — já descrita por analistas como Deborah Lupton (data selves/autorastreamento) e por trabalhos sobre identidades mediadas digitalmente de Jeena Joseph, que mapeiam a passagem do dado como observação para ação.

Deborah Lupton, em seus estudos sobre vigilância, auto-rastreamento e subjetividade digital, discute os data selves — o “eu invisível” produzido por métricas e traços digitais. Somos observados, quantificados e compostos em perfis que interagem com algoritmos capazes de decidir o que vemos, recebemos, pagamos e a quem somos reconhecidos como legítimos.

Algoritmos que moldam recomendações de música, consumo e informação com base em padrões muitas vezes inacessíveis à nossa reflexão, antecipando desejos, restringindo experiências e sugerindo possibilidades. Ao sugerirem, também condicionam e, às vezes, delimitam. Se já éramos “prosumidores” híbridos, agora somos também monitorados e mediados por inteligência artificial que toma parte na criação do nosso “eu” digital coletivo.

A Netflix documenta em artigos técnicos que a prateleira de cada assinante é montada por múltiplos modelos de recomendação afinados a um “gosto operacional” inferido do histórico. No Spotify, “descoberta” virou engenharia: do Discover Weekly aos controles para evitar distorcer o nosso taste profile, há um eu-sonoro que a máquina aprende e reescreve continuamente. No comércio eletrônico, a vitrine personalizada — herdeira do item-to-item collaborative filtering popularizado pela Amazon — transforma navegação em probabilidade de compra. Nada disso é anedótico; é infraestrutura. O que vemos já nasce filtrado por uma persona estatística que se antecipa a nós.

A publicidade tornou isso explícito ao adotar identidades inferidas como unidade de negócio. No ecossistema do Google, segmentos de afinidade, intenção de compra e demografia estimada orientam lances e entrega; no da Meta, os Lookalike Audiences caçam pessoas que “se parecem” com um público de origem. Não é sobre o que declaramos ser, mas sobre quem os dados dizem que nos parecemos — um efeito-dublê que amplia alcance e, inevitavelmente, desloca vieses para a segmentação.

Quando saímos do feed e entramos no risco, o retrato fica ainda mais palpável. Em seguro auto, programas telemáticos como o Snapshot, da Progressive, precificam prêmios segundo hábitos reais de direção — horários, frenagens, quilometragem. Em vida e saúde, a John Hancock integrou wearables a um programa de incentivos que conecta atividade e sono ao desenho de benefícios.

Até o varejo aprendeu a ler eventos de vida: o caso Target, descrito em reportagens de referência, cristalizou a hipótese de que padrões de compra permitem inferir transições sensíveis — e acionar ofertas no momento exato. Aqui, a discussão deixa de ser só privacidade: fala de autenticidade e autonomia. Se o eu que nos representa é continuamente recalculado por sinais que não controlamos, até onde seguimos autores da nossa própria trajetória?

Lupton vê os dados pessoais como próteses do eu em contextos de IA porque esses dados atuam como extensões digitais da identidade e corporeidade individuais, participando ativamente na produção, gestão e representação do sujeito moderno no ecossistema digital.

O “Eu Algorítmico”

Com a chegada da IA Generativa, esse movimento torna-se ainda mais sofisticado. Nossos dados deixam de ser apenas rastros; tornam-se agentes—sósias digitais com rosto, voz e expressão próprias. Isso amplia o risco de identidades inferidas ganharem autonomia social e econômica, escapando dos limites do consentimento e da consciência individual. Não se trata só de dados sobre nós, mas de novos representantes digitais que podem agir — ou serem utilizados — por terceiros em nosso nome.

O data selve deixa de ser passivo. Torna-se performativo. É o que Jeena Joseph define como algorithmic self — um eu algorítmico que não apenas nos representa, mas nos molda. Ele aprende com nossos rastros e os reorganiza em respostas, predições, personalizações e simulações. O que era metadado, agora fala. E fala como se fosse cada um de nós.

Esse “eu sintético” não está mais limitado a previsões em segundo plano. Ele é mobilizado ativamente. Em muitos casos, não sabemos onde termina a assistência e começa a substituição. Muitas vezes, não controlamos o que nosso clone está dizendo, sugerindo ou decidindo.

O “eu algorítmico” diz respeito à maneira como algoritmos — especialmente os baseados em IA — passam a co-construir, influenciar e até redefinir a identidade, a autoimagem, a agência e o processo de autoconhecimento de indivíduos no mundo digital contemporâneo.

Se o eu de dados é o rastro que aprende com o nosso passado, o eu algorítmico é esse rastro em ação: uma identidade inferida que nos classifica e reconfigura o cenário ao redor. A literatura chama isso de identidade algorítmica — rótulos produzidos por código que passam a governar o que vemos, quanto pagamos e o que conseguimos acessar. Deixa de ser um arquivo sobre nós para virar um mecanismo que antecipa e molda comportamento. Em uma linha: do arquivo ao filtro.

Ao reforçar preferências e comportamentos passados, a IA pode limitar a variedade de experiências, criando feedback loops que reforçam uma identidade fixa ou engessada — uma suposta “escolha” que, no fundo, é amplamente guiada pelo próprio sistema. O artigo de Joseph aponta como os sistemas de IA podem “trancar” usuários em loops de identidade, reforçando etiquetas (exemplo: ser “introvertido” ou “ansioso”) com base nas interações anteriores — o que estreita possibilidades de evolução pessoal e pode causar angústia ou alienação.

Segundo ela, práticas tradicionalmente associadas ao autoconhecimento (como reflexão, escrita ou autoanálise) estão sendo delegadas a sistemas automatizados, como apps de humor, chatbots de terapia ou assistentes pessoais. Se, por um lado, essas ferramentas podem expandir o autoconhecimento, por outro, há risco de erosão da autonomia e da capacidade reflexiva, à medida que passamos a confiar mais nos resumos e direcionamentos dos algoritmos do que na nossa própria percepção.

Em análises contemporâneas, algoritmos co-constroem preferências, autoimagem e até padrões emocionais por meio de feedback loops. Ferramentas de humor, chatbots terapêuticos e resumos “personalizados” podem ampliar o autoconhecimento — mas também terceirizar a reflexão, estreitar experiências e fixar identidades em rótulos inferidos. O risco não é apenas sermos lidos por máquinas; é passarmos a nos ler pelos resumos que elas nos oferecem.

Um estudo de Lee, Ma, Kim e Yoon (2023) documenta riscos identitários específicos dessa fase a partir de três efeitos críticos:

📌 Doppelgänger-phobia: o desconforto profundo de ver uma cópia nossa agindo por conta própria.

📌 Fragmentação do eu: a sensação de que estamos perdendo o controle sobre quem somos.

📌 Distorção de memória: quando representações falsas afetam o que lembramos como verdadeiro.

Somam-se autodiscrepância (lacuna entre eu real e ideal) e efeito Proteus (ajuste do comportamento ao perfil aspiracional). IAs que “leem emoções” e mediam narrativas de vida produzem histórias simplificadas e conformidade emocional, ameaçando a diversidade das narrativas pessoais.

A crise deixa de ser apenas de privacidade e passa a envolver autenticidade e autonomia: algoritmos coconstroem identidade, emoções e agência, borrando a fronteira entre introspecção humana e feedback algorítmico. A subjetividade contemporânea passa a ser híbrida, emergindo das interações entre pessoas, dados e sistemas.

A identidade vira API

Clones de IA já vendem produtos, respondem e-mails corporativos, substituem presença em reuniões, imitam vozes para golpes e até compõem música. As consequências ainda estão sendo mapeadas, com impactos psicológicos, políticos, comerciais e regulatórios (uso não autorizado de imagem/voz). A “economia do eu sintético” se acelera: plataformas como Replika, Synthesia, HeyGen e MindBank AI oferecem criação de personas; Tavus promete vídeos personalizáveis; outras vendem clones-como-serviço (Doppelgänger-as-a-Service) para marcas e celebridades.

A fronteira entre presença e representação se esvai. Começamos delegando tarefas e passamos a delegar funções emocionais: a IA redige desculpas, cartas, discursos — com eficiência e personalidade simulada. Quem é o autor?

Em plataformas diversas — LinkedIn, X, OnlyFans, lives corporativas, atendimento — clones replicam pessoas reais. São vendedores virtuais, mentores em escala, celebridades que “falam” com milhões. A Kartel.ai, por exemplo, ajuda modelos a criar réplicas digitais de si mesmas que possam ser contratadas para um número maior de campanhas publicitárias. A eficiência cobra preço: a identidade desliza do indivíduo para a sua réplica estatística.

Na prática, o clone é máquina de persuasão, não de representação fiel. Isso agrava:

  1. Risco de uso antiético em crédito, diagnóstico e decisões materiais;
  2. Falsa percepção de autenticidade (“sou eu ali”) quando é um perfil treinado por proxy e pouco explicável;
  3. Incentivo ao engajamento acima de limites/valores reais.

 

Tudo isso mostra que a fidelidade do clone à pessoa real é limitada — mas sua capacidade de simular autoridade é amplificada.

O risco é claro: usar essas réplicas para tarefas com impacto material, como entrevistas de emprego, pré-avaliações de crédito ou atendimentos médicos, pode transferir decisões críticas para entidades que não têm critério, nem responsabilidade.

“Esses modelos são projetados para escala, não para fidelidade.” — Quinn Favret, cofundador da Tavus.

 

Implicações regulatórias e sociais

A popularização dos clones digitais traz à tona três dilemas urgentes:

  1. Autonomia e autoria: Se nossos dados estão sendo usados para criar representantes digitais, como garantir que continuamos sendo autores de nossa imagem e narrativa?
  2. Transparência: Precisamos saber por que fomos classificados de determinada forma, e por quem. Clones precisam ser rastreáveis e auditáveis.
  3. Direito de contestação com efeito prático: Interações com IA não podem ser caixas-pretas. Quando uma decisão nos afeta, deve haver canal humano de revisão.

Além disso, torna-se urgente estabelecer limites legais para usos em saúde, crédito, trabalho e interações sensíveis.

As implicações jurídicas e éticas são vastas. As legislações atuais de imagem, voz e direitos autorais foram pensadas para proteger obras e aparências. Não foram desenhadas para proteger personas computacionais capazes de agir, influenciar ou transacionar em tempo real. E, à medida que as simulações se tornam indistinguíveis dos originais, o que está em risco é a integridade da própria comunicação humana.

A criação de sósias digitais confunde os limites da identidade pessoal e levanta questões éticas complexas sobre consentimento. Embora os usuários possam concordar involuntariamente com a coleta de dados clicando em “aceitar” nas políticas de privacidade, poucos compreendem plenamente que seus dados podem ser usados para criar uma réplica deles mesmos gerada por IA. Ainda mais alarmante é o potencial dessas réplicas serem exploradas sem consentimento para fins lucrativos, manipulação ou difamação.

Há lacunas legais: direitos de imagem/voz/autorais protegem obras e aparências, não personas computacionais em ação. À medida que simulações se tornam indistinguíveis, arrisca-se a integridade da comunicação. Surgem propostas: direito à identidade digital, direito à desreplicação, obrigação de autenticação de sósias e marcas d’água em voz/vídeo — ainda dispersas e incipientes. Nenhum país estruturou um arcabouço robusto o suficiente para lidar com esse novo ecossistema.

Para empresas, o dilema é estratégico: como usar IA para escalar comunicação e eficiência sem comprometer identidade, confiabilidade e segurança? Como evitar que o clone de uma marca, executivo ou cliente vire vetor de dano? Como criar relações confiáveis num ambiente em que toda a interação pode ser simulada?

Para indivíduos, o desafio é existencial: diferenciar voz real de voz simulada, proteger traços além de dados, preservar a autoria. Seu clone pode escrever melhor e falar mais rápido, mas só você sente o silêncio entre as linhas.

Estudos como os de Lupton oferecem lente crítica sobre poder, cultura e ética no autorastreamento, data selves e sociedade digital — úteis para pensar agência 

leia

também

  • Drex, a moeda digital nacional, teve 500 operações de 11 instituições em 50 dias de piloto

    Drex, a moeda digital nacional, teve 500 operações de 11 instituições em 50 dias de piloto

    13 de setembro de 2023 | Redação da Abranet

    O Banco Central (BC) informou que, em 50 dias de projeto piloto, 500 transações foram bem sucedidas no Drex, a moeda digital brasileira, e 11 instituições operam na rede. Segundo a autoridade monetária, os participantes do programa começaram a ser incorporados à plataforma no fim de julho. De lá para cá, vários tipos de operações têm sido simuladas, tanto no atacado quanto no varejo, disse o BC. De acordo com a autarquia, a primeira emissão de títulos públicos federais na plataforma Drex para fins de simulação foi realizada nessa segunda-feira (11). Cada um dos participantes já habilitados recebeu uma cota da versão para simulação dos títulos públicos e, a partir de então, podem iniciar também a simulação de procedimentos de compra e venda desses títulos entre eles e entres clientes simulados, afirmou. Vários tipos de operações têm sido simuladas tanto no atacado quanto no varejo – como criação de carteiras, emissão e destruição de Drex e transferências simuladas entre bancos e entre clientes. Todos os participantes conectados já realizaram ao menos alguns desses tipos de transações, sendo que cerca de 500 operações foram conduzidas com sucesso. A primeira fase do piloto deve ser encerrada no meio de 2024, com o desenvolvimento ainda de outras facilidades na fase seguinte. A cada semana, um tipo novo de operação é realizado pelas instituições participantes. Todas essas transações são apenas simuladas e se destinam ao teste de infraestrutura básica do Drex, que ainda não conta com a soluções de proteção à privacidade que serão testadas ao longo do Piloto Drex, ressaltou o BC.

    ler mais
  • BC publica cronograma para testes do Pix Automático

    BC publica cronograma para testes do Pix Automático

    04 de setembro de 2024 | Da Redação Abranet

    O Departamento de Competição e de Estrutura do Mercado Financeiro do Banco Central publicou nesta quarta, 4/9, uma nova instrução normativa que trata de diferentes aspectos da adesão ao Pix, além de prever a oferta de produtos e serviços adicionais ou facultativos. A norma trata de como os interessados, tenham já ou não autorização do BC para operar, devem fazer para aderirem ao sistema de pagamento instantâneo, as diversas etapas do processo e exigências para a formalização, como o projeto de experiencia do usuário, uso de QR Codes, etc. A autoridade monetária também trata de como instituições autorizadas a funcionar podem oferecer serviços adicionais, se habilitar ao Diretório de Identificadores de Contas Transacionais – DICT, ou serviços de iniciação de pagamentos, saque, por exemplo. Prevê, ainda, que uma instituição já participante do Pix, ou em processo de adesão, poderá apresentar, a qualquer tempo, pedido para ofertar ou consumir funcionalidades, de natureza facultativa, relacionadas ao Pix Automático. Além disso, a IN 511 traz um cronograma relacionado aos testes do Pix Automático: I – instituições que concluíram a etapa homologatória do processo de adesão ao Pix antes de 28 de abril de 2025, inclusive instituições participantes em operação, devem realizar com sucesso os testes entre 28 de abril de 2025 e 6 de junho de 2025; II – instituições que concluíram a etapa homologatória do processo de adesão ao Pix entre 28 de abril de 2025 e 6 de junho de 2025 devem realizar com sucesso os testes no prazo de oito semanas contadas a partir da conclusão com sucesso da etapa homologatória pertinente; III – instituições que não concluírem a etapa homologatória do processo de adesão ao Pix até 6 de junho de 2025 devem concluir os testes do Pix Automático dentro do prazo determinado para a conclusão com sucesso dessa etapa; e IV – instituições participantes em operação que ofertem conta apenas a usuários pessoa jurídica e optem por não ofertar pagamentos via Pix Automático devem encaminhar formulário cadastral indicando dispensa da oferta de Pix Automático até 4 de abril de 2025. Instituições participantes do Pix que estejam obrigadas a ofertar serviços do Pix Automático ou que, de forma facultativa, enviem até 4 de abril de 2025 formulário de atualização cadastral indicando a intenção de oferta de serviços do Pix Automático, devem cumprir os testes entre 28 de abril de 2025 e 6 de junho de 2025.

    ler mais
  • Comitê que vai definir futuro da internet tem dois brasileiros

    Comitê que vai definir futuro da internet tem dois brasileiros

    15 de julho de 2014 | Roberta Prescott

    Passado o evento NetMundial, agora representantes de grupos setoriais trabalham juntos para formar comitê que vai elaborar uma proposta para nortear a migração dos trabalhos da Iana, sigla em inglês para Autoridade para Designação de Números da Internet, para, ao que tudo indica, uma entidade multissetorial.; A IANA é um departamento da ICANN (em português, Corporação da Internet para Atribuição de Nomes e Números), cujo controle, até agora, é exercido pela NTIA, agência dos EUA responsável por aconselhar o presidente nos assuntos envolvendo políticas de telecomunicações e de informação.; O atual contrato do governo dos Estados Unidos com a ICANN para gerenciar as funções técnicas de DNS expira em 30 de setembro de 2015, podendo ser estendido por até quatro anos, se a comunidade precisar de mais tempo para desenvolver a proposta de transição. Desde que os Estados Unidos anunciaram sua saída, entidades do mundo todo vêm se organizando para debater como será a feita a transição e quem ficará na coordenação.; Durante o NetMundial, realizado entre 23 e 24 de abril, em São Paulo, o governo dos Estados Unidos se opôs a um modelo multilateral, apontando, entre as condicionantes para a transição, que apoiam o modelo multissetorial (multistakeholder). Os EUA também deixaram claro que não vão aceitar uma proposta de transição que substitua o papel NTIA com uma solução conduzida por algum governo ou uma solução intergovernamental.; O NetMundial foi aclamado por seus participantes por indicar uma série de princípios que devem reger a internet, como a neutralidade de rede, a liberdade de expressão e o direito de acesso. A consolidação destes princípios foi o grande legado, como explicou para a Abranet Vanda Scartezini, representante para a América Latina da ONG PIR. ; ; Cada um dos grupos dos stakeholders, líderes dos principais setores da cada sociedade interessados no tema, elege os participantes que integrarão o comitê, sempre visando ao caráter técnico e não político. No total, cerca de 30 pessoas integrarão o comitê de trabalho cujo objetivo é apresentar uma proposta do que poderia substituir o controle que hoje é da NTIA. Dois brasileiros fazem parte deste comitê: Demi Getschko, do Núcleo de Informação e Coordenação do Ponto BR (NIC.br), e Hartmut Richard Glaser, secretário-executivo do Comitê Gestor da Internet no Brasil – CGI.br.; A expectativa, explica Vanda Scartezini, é ter alguma proposta no próximo encontro da ICANN, em outubro em Los Angeles. Despois disto, as ideias vão para consulta pública, quando recebem críticas e sugestões, que são compiladas e analisadas. “Esta é a primeira fase de trabalhos. Como é um grupo grande, imagino que eles devam se dividir em subgrupos”, comenta. ; ;

    ler mais