Китайская семья оказалась в центре бурных споров после того, как решила пойти на необычный и неоднозначный шаг — создать с помощью искусственного интеллекта цифрового двойника погибшего мужчины, чтобы его пожилая мать не узнала о трагедии.
Потеря ребенка — одно из самых тяжелых испытаний для любого родителя. Но что, если есть способ уберечь от этой боли, пусть даже ценой обмана? Именно этот моральный вопрос расколол пользователей китайского интернета, вызвав горячие дискуссии.
Как сообщает South China Morning Post, после гибели мужчины в автокатастрофе его семья заказала создание реалистичного ИИ-клона. Разработчик получил фотографии, видеозаписи и голосовые сообщения погибшего, чтобы воссоздать не только его внешность и голос, но и характерные жесты, манеру общения и даже привычки в разговоре. Результат оказался настолько точным, что отличить цифровую копию от настоящего человека стало практически невозможно.
Самое удивительное — 80-летняя мать мужчины до сих пор не знает о его смерти. Ей сказали, что сын просто уехал работать в другой город. Чтобы поддерживать эту версию, родственники регулярно устраивают видеозвонки с участием ИИ-клона. Во время таких разговоров женщина заботливо напоминает «сыну» тепло одеваться и хорошо питаться, а он, в свою очередь, обещает скоро приехать, как только освободится от работы.
Известно, что погибший был единственным ребенком женщины, к тому же она страдает сердечным заболеванием. Именно это стало ключевым аргументом для семьи — они решили, что правда может оказаться для нее слишком тяжелым ударом.
История вызвала бурную реакцию в соцсетях: одни пользователи считают поступок семьи проявлением любви и заботы, другие — опасным самообманом, лишающим человека права на правду и проживание горя.
Этот случай поднимает гораздо более широкий вопрос о границах использования технологий: где проходит грань между заботой и манипуляцией реальностью? Искусственный интеллект все чаще становится инструментом не только помощи, но и эмоциональной компенсации, позволяя людям «сохранять» близких в цифровом виде. Однако подобные решения могут иметь долгосрочные психологические последствия — как для тех, кто поддерживает иллюзию, так и для тех, кто в нее верит.
