- 2wai permite crear HoloAvatars hiperrealistas que imitan rostro, voz y estilo de personas reales, vivas o fallecidas.
- La app usa modelos de lenguaje, clonación de voz y animación facial, bajo un modelo freemium con fuerte foco comercial.
- Su uso para “revivir” a familiares muertos genera debates éticos, psicológicos, legales y de privacidad muy serios.
- 2wai se inscribe en el auge de la GriefTech, que convierte el duelo y la inmortalidad digital en un negocio recurrente.

La idea de hablar con alguien que ya ha muerto parecía cosa de películas o de capítulos retorcidos de Black Mirror, pero la inteligencia artificial ha cruzado esa línea sin pestañear. 2wai es la app que ha encendido todas las alarmas: promete crear avatares hiperrealistas de personas reales, vivos o fallecidos, capaces de conversar como si siguieran aquí.
Más allá del impacto inicial, esta herramienta abre un melón enorme de preguntas éticas, legales, psicológicas y de privacidad. En las siguientes líneas vas a ver con calma qué es 2wai, cómo funciona técnicamente, qué usos plantea su propia empresa, por qué las redes se le han echado encima y qué riesgos reales hay detrás de esta especie de “inmortalidad digital”.
Qué es 2wai y qué promete esta app de IA
2wai se presenta como “la primera red social de avatares humanos”, una plataforma que permite generar lo que llaman HoloAvatars: copias digitales de personas que imitan su cara, su voz, sus gestos y, según la propia compañía, incluso sus recuerdos. Todo se crea a partir de unos pocos minutos de vídeo grabados con el móvil.
La idea central es que puedas tener un “gemelo digital” que hable e interactúe como tú, o como cualquier otra persona a la que grabes: familiares, amigos, figuras públicas o incluso personajes ficticios. La promesa comercial es clara: tener una versión de ti (o de otro) que pueda estar disponible 24/7 para conversar, responder preguntas y mantener una especie de presencia permanente.
En el propio material promocional, 2wai enfatiza que el avatar “se ve y habla como tú, e incluso comparte los mismos recuerdos”. A nivel de marketing, lo empaquetan como un “archivo vivo de la humanidad”: cada persona podría grabarse unos minutos para dejar un clon conversacional activo durante años.
La parte más llamativa —y polémica— es el uso funerario: 2wai pone el foco en “revivir” a seres queridos fallecidos mediante avatares que siguen presentes en el día a día de la familia. La campaña gira en torno a la frase “con 2Wai, tres minutos pueden durar para siempre”, dejando claro que el negocio pasa por prolongar, vía IA, la presencia de quien ya no está.
Detrás de la startup están el actor canadiense Calum Worthy (conocido por la serie de Disney Channel “Austin & Ally”) y el productor de cine Russell Geyser. La empresa tiene sede en Los Ángeles, ha levantado en torno a 5 millones de dólares de financiación semilla y presume de colaboraciones con compañías como British Telecom, IBM o Globe Telecom.
Cómo funciona 2wai a nivel técnico
El funcionamiento interno no está explicado al detalle a nivel científico, pero sí se conocen las bases. 2wai se apoya en varios componentes clave de inteligencia artificial generativa que ya se usan en otras herramientas de IA para Android, pero combinados en un mismo producto comercial.
En primer lugar, la app utiliza modelos de lenguaje avanzados (del estilo de los grandes modelos que mueven los chatbots actuales) para generar respuestas coherentes, contextuales y en tiempo real. Estos modelos analizan lo que el usuario dice o escribe y construyen una contestación con cierto tono y estilo asociados al avatar.
En paralelo, entran en juego sistemas de síntesis de voz y clonación vocal. A partir de unos minutos de audio o del propio vídeo, el algoritmo aprende los rasgos de la voz de la persona: timbre, acento, ritmo al hablar, muletillas… Con eso, la IA puede generar frases totalmente nuevas pero con una voz prácticamente indistinguible de la original.
La parte visual se construye con modelos de animación facial y generación de vídeo. El rostro del avatar se sincroniza con el audio, mueve labios, ojos y gestos faciales para que parezca que realmente está hablando en directo. Se trata de una evolución de las tecnologías de deepfake, pero empaquetada para uso doméstico y conversacional.
De forma esquemática, el flujo de creación de un HoloAvatar sería algo así:
- Grabación de referencia: la persona (o un familiar) filma un vídeo de unos tres minutos hablando y moviéndose frente a la cámara del móvil.
- Análisis de rasgos: la IA extrae patrones de la cara, la voz, los gestos y el estilo de comunicación.
- Entrenamiento del avatar: con esos datos se entrena un modelo específico que represente a esa persona.
- Interacción en tiempo real: el usuario abre la app y conversa con el avatar, que responde por voz, con expresión facial y en varios idiomas.
En el caso de figuras históricas o personajes ficticios, 2wai combina modelos visuales y de voz genéricos con información contextual (biografías, textos, guiones) para simular conocimientos y forma de hablar, de manera similar a otros chatbots temáticos, pero con capa visual incluida.
Un detalle importante es que la empresa no ha explicado con claridad de dónde salen exactamente los “recuerdos” del avatar: si se limitan a lo que el usuario aporta (historias, fotografías, datos escritos) o si el sistema “rellena huecos” inventando información plausible a partir del contexto. Para una familia en duelo, esa frontera entre memoria real y ficción generada puede ser muy difusa.
Precio y disponibilidad de la app 2wai
2wai funciona bajo un modelo freemium típico de muchas apps de IA. La descarga es gratuita y se puede acceder a ciertas funciones básicas sin pagar, pero las capacidades avanzadas y los avatares más sofisticados se desbloquean mediante compras dentro de la aplicación o suscripciones periódicas.
En el momento actual, la app se encuentra en fase beta para iOS y se puede descargar desde la App Store de Apple. La versión para Android está anunciada como “próximamente”, pero todavía sin fecha cerrada; mientras tanto muchos usuarios realizan pruebas en smartphones y apps para comprobar compatibilidades.
La empresa ya ha dejado caer que habrá planes de suscripción y posiblemente niveles premium que ofrezcan avatares más avanzados, más memoria de contexto, mayor calidad de vídeo o más tiempo de conversación. Lo inquietante es que no está claro qué ocurre con un avatar ya creado si el usuario deja de pagar: ¿se congela, se borra, se degrada su funcionalidad?
Este modelo de negocio ha generado debate extra: monetizar el duelo a través de suscripciones recurrentes se percibe por muchos como cruzar una línea moral complicada. La mera posibilidad de que haya una “versión básica” de la abuela digital y un plan premium que la haga “más lista” o más presente resulta grotesca para buena parte de la opinión pública.
Además, al subir vídeos, audios y datos de personas fallecidas o vulnerables, el usuario está cediendo material extremadamente íntimo a una empresa privada. Qué pasa con todo eso si se cancela la suscripción, si la compañía cierra o si decide cambiar de estrategia de negocio es una de las grandes dudas del modelo.
Casos de uso que plantea 2wai (y los que ve la gente)
En su discurso oficial, 2wai no se limita al ámbito funerario. La empresa presenta la plataforma como una forma de multiplicar la presencia digital de personas vivas, tanto usuarios normales como creadores, marcas e “iconos” que quieran atender a su comunidad sin estar siempre conectados.
Entre los usos potenciales que se mencionan están los avatares personales, algo así como una versión digital de uno mismo que pueda responder por ti, atender mensajes, explicar quién eres o incluso servir como “yo profesional” disponible para clientes o fans.
Otro de los escenarios que se venden es el de creadores de contenido e influencers. Un avatar podría hablar con miles de seguidores a la vez, en distintos idiomas, mientras la persona real se dedica a otras tareas. Sería un clon virtual que multiplica presencia, visitas y engagement sin necesidad de estar físicamente delante de la cámara.
También se apunta a la educación y la divulgación: HoloAvatars de personajes históricos (como el propio William Shakespeare, que la app incluye como avatar preconfigurado) con los que el estudiante pueda charlar, preguntar dudas y recibir explicaciones personalizadas, todo con un envoltorio visual llamativo.
A un nivel más cercano, se habla de coaches o entrenadores virtuales, asistentes personales que recuerdan tus preferencias, te animan, te dan consejos o te ayudan a practicar idiomas. De nuevo, nada muy alejado de otros bots de IA, pero con la capa “humana” de la imagen y la voz.
Sin embargo, el foco mediático se ha desplazado casi por completo a la función de “revivir” a familiares fallecidos. El propio vídeo promocional se centra en una abuela digital que acompaña a su hija embarazada, luego lee cuentos a la nieta, y años después conversa con el nieto al volver del colegio. Es esa narrativa la que ha disparado las críticas.
La gran polémica: hablar con los muertos mediante IA
El anuncio de 2wai en X (antes Twitter), compartido por Calum Worthy, se hizo viral en cuestión de horas y acumuló millones de reproducciones… y una avalancha de respuestas negativas. Adjetivos como “repugnante”, “perverso”, “vil” o “más inquietante que un capítulo de Black Mirror” se repiten una y otra vez.
Muchos usuarios señalan que este producto es “objetivamente una de las ideas más malignas imaginables” o “lo más demoníaco y deshumanizador” que han visto en su vida. Otros subrayan que el negocio se alimenta del dolor y de la vulnerabilidad emocional, ofreciendo una especie de substituto artificial de la persona perdida a cambio de cuotas mensuales.
El paralelismo con Black Mirror es inevitable. Numerosos comentarios recuerdan específicamente el episodio “Be Right Back” (temporada 2, episodio 1), en el que una mujer recrea a su novio fallecido a partir de sus mensajes y redes sociales. Allí, la historia acaba mostrando lo perturbador que resulta convivir con una copia que nunca termina de ser la persona real.
Lo que antes se veía como advertencia distópica ahora se percibe casi como un manual de instrucciones que algunas empresas parecen estar siguiendo al pie de la letra. No es la primera vez que la IA se asoma a este terreno: Amazon llegó a anunciar que Alexa podría imitar la voz de un familiar fallecido, y ya existían servicios como StoryFile, Eternos.Life, Only Virtual o HereAfter que permiten crear chatbots entrenados con la voz o los datos de un difunto.
2wai, sin embargo, lleva el concepto un paso más allá al ofrecer avatares audiovisuales interactivos en el móvil, sin necesidad de hardware específico ni conocimientos técnicos. Descargar, grabar unos minutos y listo: la “abuela digital” aparece en la pantalla, lista para seguir formando parte de la familia durante años.
Impacto psicológico y duelo: ¿alivio o bomba de relojería?
Desde la psicología del duelo, la llegada de herramientas como 2wai plantea riesgos importantes. Las teorías modernas hablan de los “lazos continuos” (continuing bonds), es decir, la idea de que mantener un vínculo simbólico con la persona fallecida (objetos, rituales, recuerdos compartidos) puede ser sano y adaptativo.
El problema aparece cuando ese vínculo deja de ser simbólico y se convierte en una presencia casi tangible que invita a negar la realidad de la muerte. Ver y escuchar a diario a un avatar hiperrealista que habla como tu madre o tu pareja puede hacer mucho más difícil aceptar que esa persona ya no está y que la vida ha cambiado.
Profesionales como la psicóloga Ana Villarrubia han expresado dudas claras: este tipo de herramientas podría atraer precisamente a personas en pleno duelo complicado o con predisposición a un duelo patológico. En lugar de acompañar el proceso, el avatar podría convertirse en un ancla que te mantiene atrapado en la fase de negación.
Villarrubia apunta que el riesgo se dispara cuando el avatar pasa de ser un apoyo puntual a un sustituto emocional. Si el mayor consuelo del día es hablar con la versión digital del fallecido, si el niño solo quiere que la “abuela IA” le lea el cuento todas las noches, la tecnología deja de ser un recuerdo y se convierte en un obstáculo para reordenar la vida tras la pérdida.
Hay que tener en cuenta que el trastorno de duelo prolongado ya figura en manuales diagnósticos como el DSM-5-TR y la CIE-11, con una prevalencia estimada de entre el 4 % y el 7 % de las personas en duelo, según distintos estudios. En ese contexto, cualquier factor que favorezca la cronificación del sufrimiento, la negación o la dependencia puede ser especialmente problemático.
También influye la edad y la madurez. En el vídeo de 2wai, la abuela avatar lee cuentos a su nieta antes de dormir. Para una niña pequeña, crecer con esa presencia podría tener efectos difíciles de prever: si el principal vínculo afectivo diario está mediado por un holograma, el proceso de aceptar la muerte y construir nuevas referencias emocionales puede quedar muy distorsionado.
Privacidad, consentimiento y derechos post mortem
Más allá del impacto emocional, 2wai abre un auténtico campo de minas legal y ético en torno a datos, imagen y consentimiento. La cuestión básica es: ¿quién decide que se cree un avatar de una persona, sobre todo si ya ha fallecido?
Investigadores de la Universidad de Cambridge han advertido del riesgo de los llamados “hauntings no deseados”: bots que replican a personas sin su autorización o que reaparecen en la vida de familiares que no los han pedido. Con tecnologías cada vez más accesibles, basta con que un pariente tenga unos cuantos vídeos o audios para montar un clon digital al margen de la voluntad del protagonista.
En países como España, los derechos al honor, la intimidad, la imagen y la protección de datos se extinguen con la muerte. La tutela de la memoria del fallecido recae en los herederos, pero el terreno es resbaladizo: ¿es suficiente el consentimiento expreso en vida?, ¿qué pasa si la persona se habría negado rotundamente a ser “resucitada” por una IA y la familia lo hace igualmente?
Otro frente es la gestión de los datos. Para entrenar un HoloAvatar hará falta recopilar vídeos familiares, audios personales, conversaciones, fotografías y tal vez hasta mensajes privados. Todo eso se almacena en servidores de la empresa, que puede fusionar ese material con modelos propios y derivar en productos futuros.
El usuario medio raramente se lee los términos y condiciones. Eso deja en el aire cuestiones como cuánto tiempo se guardan las grabaciones, quién puede acceder a ellas, si se usan para entrenar otros modelos, qué ocurre si la compañía se vende a otro grupo o si entra en bancarrota y sus activos (incluidos los datos) pasan a manos de terceros.
El escenario extremo, pero no imposible, es incómodo de imaginar: ver a tu madre fallecida convertida en avatar de una campaña publicitaria, vendiendo productos que ella jamás habría aceptado promocionar. El marco actual de protección de datos no está preparado para estos usos tan complejos del legado digital.
¿Es segura 2wai? Dudas sobre control y uso de datos
En este punto, 2wai es todavía una plataforma joven y con una adopción temprana que deja muchas preguntas sin respuesta. Como pasa con casi todas las apps de IA emergentes, la tecnología va más rápido que las normas y la transparencia no siempre acompaña.
Hay interrogantes evidentes sobre cómo se gestionan y almacenan los datos sensibles. No hablamos solo de vídeos de caras, sino de voces, historias íntimas, conversaciones de duelo, confesiones familiares… un material extremadamente jugoso tanto para entrenar modelos como para posibles filtraciones o usos indebidos.
También preocupa el grado de control que el usuario mantiene sobre los avatares. ¿Puede borrar completamente un HoloAvatar y todo su rastro? ¿Puede impedir que otro miembro de la familia siga utilizándolo? ¿Hay garantías de que no se reentrene el avatar para otros fines bajo el paraguas del “mejorar el servicio”?
La empresa insiste en el potencial comercial positivo de su tecnología —atención a clientes, clones de creadores, interacción multilingüe—, pero evita entrar en demasiado detalle sobre las políticas de uso a largo plazo. En un sector tan sensible como el de los datos biométricos y emocionales, esa opacidad es, por sí misma, una señal de alarma.
Antes de subir cualquier vídeo, y más aún si incluye a terceros o a personas fallecidas, lo prudente es leer con calma los términos de servicio y la política de privacidad. Si algo no queda claro (qué se hace con el material, si se comparte con terceros, si se usa para entrenamiento general), lo más sensato es pensárselo dos veces.
2wai en el contexto de la “GriefTech” y la inmortalidad digital
2wai no aparece en el vacío. En los últimos años se ha ido consolidando todo un sector conocido como GriefTech o “afterlife tech”, empresas que monetizan el duelo con servicios de chatbots, avatares o espacios virtuales donde seguir “conviviendo” con un ser querido.
Reportajes en medios internacionales y hasta el documental Eternal You, presentado en Sundance, han analizado ya este negocio de la inmortalidad digital: plataformas que por unos pocos dólares permiten mantener decenas de conversaciones con una réplica del fallecido, a veces preparadas por la propia persona en vida.
Compañías como StoryFile, Eternos.Life, Only Virtual o HereAfter ofrecen variantes de la misma idea: bots que hablan con la voz del difunto, asistentes que responden con su estilo de escritura, entrevistas pregrabadas que se convierten en diálogos interactivos tras la muerte. 2wai es el siguiente escalón, al sumar una capa audiovisual convincente y un envoltorio de red social.
La diferencia es que ahora esta tecnología ya no se percibe como un experimento de nicho, sino como un producto comercial masivo disponible en la App Store, con marketing emocional agresivo y planes de suscripción en el horizonte. Eso acelera el choque con la regulación, con la ética profesional (psicólogos, psiquiatras, juristas) y con la sensibilidad social.
Todo esto ocurre, además, en un momento en que la inteligencia artificial generativa se ha colado en prácticamente todos los ámbitos: desde editar fotos y crear vídeos hasta escribir textos o imitar voces. La combinación de herramientas hace posible, técnicamente, construir clones cada vez más convincentes con menos esfuerzo y coste.
Frente a esa tendencia, muchas voces piden poner límites claros: que la clonación digital requiera un consentimiento explícito y detallado en vida, que se regulen los usos comerciales de la imagen y la voz post mortem, y que se obligue a las empresas a ofrecer explicaciones comprensibles sobre qué hacen con los datos y durante cuánto tiempo.
2wai se sitúa justo en el epicentro de ese debate: combina la fascinación tecnológica por “revivir” a quien ya no está con todas las sombras de un modelo de negocio que convierte el dolor y la memoria en un servicio de pago. El resultado es una aplicación que impresiona tanto como incomoda, y que está sirviendo de catalizador para replantearnos hasta dónde queremos dejar llegar a la IA en algo tan íntimo como el recuerdo de los nuestros.
Todo apunta a que este tipo de soluciones seguirán apareciendo y mejorando, pero la gran cuestión sigue en el aire: más allá de que sea posible tener una abuela digital que cuente cuentos por la noche, hay que decidir si realmente necesitamos —o queremos— que el recuerdo de quienes se fueron dependa de servidores ajenos, cuotas mensuales y condiciones de uso que casi nadie lee, o si preferimos que siga estando en ese lugar frágil, humano y finito que siempre han ocupado los recuerdos.