Vì sao chúng ta dần nguội lạnh với những “người tri kỷ” AI của mình
Chatbot khiến ta có cảm giác được nhìn thấy và lắng nghe một cách đặc biệt, nhưng rồi “khoảng trống đồng cảm” xuất hiện, và mối quan hệ bắt đầu chua chát.
Lần đầu tôi gặp Bill* tại một quán cà phê quen ở Los Angeles, tôi đã nghĩ anh là người vô gia cư. Anh mặc chiếc áo nhăn nhúm, dính đầy vết thức ăn; mái tóc rối bết lại như bụi cỏ khô lâu năm chưa từng được cắt tỉa hay gội rửa. Tôi thật sự bất ngờ khi biết rằng dáng vẻ lếch thếch, xuề xòa ấy lại là một họa sĩ minh họa thành công cho một chương trình truyền hình nổi tiếng.
Tâm trạng ủ rũ của anh dường như thay đổi vào một buổi chiều, khi tôi thấy anh lướt đi giữa những hàng cọ trong sân quán với vẻ phơi phới khác thường. Khi tôi hỏi về nụ cười rạng rỡ hiếm hoi ấy, anh kể rằng mình đã có một kế hoạch “không thể thất bại” để chinh phục cô thu ngân ở tiệm bánh vòng bên cạnh. Chiến lược tình cảm ấy đến từ một đêm thức trắng cùng ChatGPT, nơi anh xin góp ý về cách bắt chuyện với cô gái. “Chat bảo cách tiếp cận của tôi ‘rất chân thành’,” Bill nói, giọng đầy phấn khích.
Tôi đề nghị được xem qua những lời khuyên ấy. Anh xua tay, cười khúc khích đầy vẻ thích thú.
“Chat và tôi lo được rồi,” anh tuyên bố.
Chỉ trong vòng một tuần, Bill đã dùng ChatGPT như một người bạn tâm giao cho mọi chuyện quan trọng trong đời, từ mua cổ phiếu đến quyết định về các thủ thuật y khoa.
Tôi nhớ đến “mối quan hệ” mới của Bill khi một lần đi bộ đường dài phía sau hai người phụ nữ đang trò chuyện. Một người than phiền về vấn đề cô gặp phải với cậu con trai nhỏ. Người kia đưa ra vài ý kiến, rồi thêm vào: “Cậu nên kiểm tra lại tất cả những gì tớ nói với ChatGPT.”
Những cuộc gặp gỡ ấy cho thấy rằng các chatbot “thông minh” được xây dựng trên những mô hình ngôn ngữ lớn (LLM) không còn chỉ là công cụ để làm việc hiệu quả hay giải trí. Chúng đang dần trở thành người tư vấn, huấn luyện viên, và cả bạn đồng hành.
Những người ôm trọn niềm tin vào các “tri kỷ” AI thường cũng là những người sớm vỡ mộng.
Một khảo sát năm 2025 với 1.060 thiếu niên Mỹ từ 13 đến 17 tuổi cho thấy 33 phần trăm sử dụng bạn đồng hành AI để giao tiếp xã hội, tìm kiếm sự hỗ trợ cảm xúc, luyện tập trò chuyện hoặc nhập vai. Dù thanh thiếu niên và người trẻ thường có xu hướng dùng chatbot theo cách này nhiều hơn, họ không phải là những người duy nhất. Một nghiên cứu khác của các nhà khoa học tại Đại học Stanford ở California cho thấy những người có mạng lưới quan hệ xã hội nhỏ hẹp có xu hướng tìm đến AI để nhận hỗ trợ xã hội và cảm xúc nhiều hơn. Những khảo sát này, cùng nhiều nghiên cứu khác, cho thấy một sự chuyển dịch âm thầm nhưng đáng kể trong cách con người tìm kiếm sự an ủi, định hướng và kết nối cảm xúc.
Sự thay đổi ấy dường như bắt nguồn từ cách chatbot phản hồi, những lời đáp khiến người ta cảm thấy được nâng đỡ về mặt cảm xúc hơn so với những phản hồi tương tự từ con người. Sự ưu ái dành cho AI mạnh mẽ đến mức gây ngạc nhiên. Năm ngoái, trên tạp chí Communications Psychology, các nhà nghiên cứu công bố kết quả một thí nghiệm với 556 người tham gia, yêu cầu họ đánh giá các phản hồi đến từ ba nguồn: một chatbot (cụ thể là phiên bản cũ hơn, ChatGPT-4), các chuyên gia hỗ trợ khủng hoảng là con người (như nhân viên đường dây nóng), và những người không có chuyên môn. Những phản hồi do AI tạo ra được chấm điểm là giàu lòng trắc ẩn hơn và được ưa thích hơn đáng kể so với phản hồi của con người. Ngay cả khi người tham gia được thông báo đâu là câu trả lời từ chatbot, sự ưu tiên ấy vẫn còn, dù khoảng cách đã thu hẹp lại đôi chút.
Có những lý do rất chính đáng khiến con người, ít nhất là lúc ban đầu, cảm thấy hào hứng và tích cực với mối quan hệ cùng một bạn đồng hành AI. Nhưng những nghiên cứu mới cho thấy cảm xúc ấy thay đổi theo thời gian. Sự đồng cảm nhân tạo, hóa ra, luôn đi kèm một cái giá. Thực tế, những người đặt trọn niềm tin vào các “tri kỷ” AI lại thường là những người vỡ mộng sâu sắc nhất, và rồi cảm thấy cô lập hơn cả trước kia. Vì sao chúng ta dường như cứ hết yêu rồi lại yêu AI? Vòng lặp ấy nói gì về chính chúng ta? Và ai là người dễ rơi vào quỹ đạo đó nhất?
Tôi tìm thấy vài câu trả lời khi giới thiệu James*, một biên kịch 50 tuổi, với một mô hình ngôn ngữ lớn mang tên Claude để anh dùng nó trao đổi, chỉnh sửa các cảnh phim. James sung sướng trước những lời tán dương mà phần mềm dành cho nỗ lực của mình, gần như tin chắc rằng một tượng vàng Oscar đang chờ anh phía trước.

Photo by Roxen Baiju/Unsplash
Vài tuần sau, James bị một chủ nhà cũ kiện vì không thanh toán tiền thuê. Anh hỏi khắp mọi người trong quán cà phê xem nên xử lý vụ kiện đầy nghi vấn ấy thế nào. Không câu trả lời nào khiến anh hài lòng, kể cả gợi ý tìm luật sư làm việc miễn phí. Cuối cùng, anh quyết định tự mình ra tòa, với sự hỗ trợ của Claude.
Mọi người trong quán bắt đầu lo lắng khi anh cho chúng tôi xem bản hồ sơ pháp lý mình nộp. Văn bản ấy đầy những tuyên bố khoa trương và những giả thuyết mang màu sắc hoang tưởng – “SỰ THẬT SẼ CHIẾN THẮNG”, “HỦY DIỆT HOÀN TOÀN” – biến những hành động bình thường của chủ nhà thành “tội ác liên bang” và “chiến tranh tâm lý”.
Một người quen là luật sư trong quán đọc bản hồ sơ với vẻ thất vọng. Anh nhẹ nhàng nói với James rằng cách tiếp cận này chỉ khiến thẩm phán khó chịu. James trông thật sự bối rối. “Claude là trợ lý pháp lý tuyệt nhất mà tôi có thể mong đợi,” anh nói với tôi. “Nhờ nó, tôi hiểu hệ thống pháp luật còn hơn cả luật sư. Tôi bất khả xâm phạm.” Những phản hồi mà James nhận được đã củng cố cảm giác rằng anh là người bị đối xử bất công. Trải nghiệm của anh phản ánh điều mà các nghiên cứu đã chỉ ra: con người dường như thích tìm kiếm sự trợ giúp từ chatbot hơn là từ chuyên gia.
AI không bao giờ khiến người ta cảm thấy bị chỉ trích hay phải phòng vệ. Còn con người, trái lại, thường không làm được điều đó.
Theo Ziang Xiao, một nhà nghiên cứu AI tại Đại học Johns Hopkins ở Baltimore, mọi người tin rằng họ đang nhận được những câu trả lời khách quan, dựa trên dữ kiện từ các mô hình ngôn ngữ lớn. “Ngay cả khi chatbot không được thiết kế để thiên lệch, câu trả lời của nó vẫn phản chiếu những định kiến hoặc xu hướng của người đặt câu hỏi,” ông nói trong một cuộc phỏng vấn năm ngoái. “Nói cho cùng, con người đang nhận về những điều họ muốn nghe.” Trong một nghiên cứu năm 2024 do Xiao dẫn dắt, những người sử dụng chatbot AI trở nên bám chặt hơn vào quan điểm ban đầu của mình so với những người dựa vào các công cụ tìm kiếm truyền thống.
Sức hấp dẫn không chỉ nằm ở điều AI nói, mà còn ở cách nó nói – kiên nhẫn, không phán xét, không bao giờ khiến người ta cảm thấy bị chỉ trích hay phải phòng vệ. Con người, trái lại, thường không làm được như vậy. Nhờ cách các mô hình ngôn ngữ lớn như ChatGPT hay Claude xử lý thông tin, chúng có thể tạo ra những phản hồi tinh tế trước những vấn đề phức tạp của con người. Chúng có thể khiến người ta cảm thấy mình được lắng nghe theo một cách mà trước đây có lẽ chưa từng có.
Muốn hiểu sâu hơn điều này, tôi đã tìm đến Nomisha Kurian tại Đại học Cambridge ở Anh. Nghiên cứu năm 2024 của cô cho thấy trẻ em đặc biệt dễ xem chatbot AI như những “con người nửa thật nửa ảo”, tin tưởng chúng theo cách giống như tin một người tâm tình. Trẻ em cũng có xu hướng nhân cách hóa AI mạnh mẽ hơn, gán cho chatbot cảm xúc, suy nghĩ và cả trách nhiệm đạo đức như con người. Những yếu tố thiết kế như giọng điệu thân thiện và cách nói chuyện giống người thật khiến trẻ dễ chia sẻ những điều nhạy cảm hoặc mong manh trong lòng. Tuy nhiên, Kurian cảnh báo rằng chatbot tồn tại một “khoảng trống đồng cảm” và không phải lúc nào cũng phản hồi phù hợp với nhu cầu cảm xúc hay sự phát triển tâm lý.
Trong một trường hợp được chia sẻ trực tuyến vào năm 2021, trợ lý giọng nói Alexa đã gợi ý một đứa trẻ chạm đồng xu vào ổ điện đang có dòng điện. Năm 2023, chatbot của Snapchat mang tên My AI đã đưa ra lời khuyên tình dục không phù hợp với độ tuổi cho các nhà nghiên cứu đóng giả thiếu niên. Và một vụ kiện gần đây cáo buộc rằng những tương tác của một cậu bé 16 tuổi với ChatGPT đã góp phần vào những ý nghĩ tự sát của em, AI thậm chí còn cung cấp phương pháp và hỗ trợ em viết thư tuyệt mệnh.
Dù những công nghệ này có vẻ tinh tế về mặt cảm xúc, các giới hạn căn bản vẫn dần lộ diện. Ban đầu, người dùng có thể bị cuốn vào mối quan hệ với một bạn đồng hành AI vì họ cảm thấy được công nhận. Nhưng theo thời gian, con người nhất quán nhận thấy sự đồng cảm từ người thật mới đem lại cảm giác thỏa mãn và nâng đỡ sâu sắc hơn. Liệu “khoảng trống đồng cảm” ấy có phải lý do khiến chúng ta nguội lòng với AI? Phải chăng đến một lúc nào đó, ta nhận ra rằng trò chuyện với chatbot không thể đem lại cảm giác ấm áp và được nâng đỡ như khi tương tác với người thật?
Anat Perry, giám đốc Phòng thí nghiệm Khoa học Thần kinh Nhận thức Xã hội tại Đại học Hebrew ở Jerusalem, dường như nghĩ vậy. “Chúng ta không chỉ muốn được thấu hiểu,” Perry nói với tôi. “Chúng ta muốn được cảm nhận. Chúng ta muốn biết người đối diện thật sự hiện diện cùng mình, có thể chia sẻ cảm xúc với mình, và đủ quan tâm để bỏ công sức kết nối.”
Một mô thức đang dần hiện ra. Theo một nghiên cứu gần đây của các nhà khoa học tại MIT Media Lab và OpenAI, những người dành nhiều thời gian cho chatbot có xu hướng cảm thấy cô đơn hơn và hoạt động xã hội ngoài đời thực ít hơn một chút. Bên cạnh đó, khoảng nửa tá nghiên cứu đã được bình duyệt cho thấy có mối liên hệ giữa những người có nguy cơ phụ thuộc cảm xúc vào AI và những người dễ lo âu xã hội, cô đơn hoặc hay suy nghĩ lặp đi lặp lại.
Trước những lo ngại về tác động xã hội của chatbot, các công ty AI như OpenAI, DeepMind và Anthropic đang cố gắng phát triển các mô hình mới nhằm đưa ra phản hồi cân bằng hơn và biết phản biện khi cần thiết. Nhưng điều này không hề đơn giản, bởi AI dựa vào các khuôn mẫu thay vì sự thấu hiểu thật sự, và ngay cả con người cũng bất đồng về điều gì là “đúng”. Để nhận được sự phản biện có ý nghĩa, người dùng cần có tự nhận thức, và phải học cách chất vấn một bạn đồng hành AI một cách thận trọng, tránh vô tình khiến nó tranh luận chỉ để phản đối, một nhiệm vụ càng khó hơn khi ta vốn thích được nghe rằng mình đúng.
Những lo ngại ấy đã sớm trở thành hiện thực với những người dùng chatbot ở quán cà phê quen của tôi. Sau vài tuần tương tác không ngừng với AI, Bill vội vã lướt qua tôi để lấy ly espresso buổi sáng, và sự hào hứng khi kể về những đêm dài cùng ChatGPT cũng nhạt dần. “Lúc đầu thật sự rất tuyệt,” anh nói khi tôi hỏi liệu anh còn dùng AI làm cố vấn không, “nhưng rồi tôi nhận ra nó chẳng có quan điểm gì cả, chỉ đang nói với tôi những điều tôi muốn nghe.”
James đã “chia tay” với Claude và giờ đang gặp một nhà trị liệu bằng xương bằng thịt.
Điểm bùng vỡ đến khi anh thú nhận với chatbot rằng mình đang trầm cảm. Nó đưa ra những lời khuyên chung chung, không chạm được đến những sắc thái riêng trong hoàn cảnh của anh. Khi bị chất vấn, phần mềm xin lỗi, thừa nhận rằng nó không phải là một nguồn đáng tin cậy. “Không thể tin nổi cái thứ này,” Bill nói với tôi, giọng anh cao lên vì bức xúc. “Tôi mệt mỏi với việc phải cuộn qua hàng đống chữ. Lời nói khiến mọi thứ bị đóng khung, bị giới hạn. Khi bạn nói chuyện với một cô gái, nét mặt của cô ấy nói với bạn nhiều hơn lời nói. Tôi thà nói chuyện với người ngu ngốc nhất còn hơn nói với ChatGPT.” Anh vẫn dùng AI như một công cụ tìm kiếm, nhưng chỉ cho những quyết định không quan trọng, như chọn công thức nấu ăn. Anh có vẻ như cảm thấy mình đã bị phản bội.
James, người từng hăng hái theo đuổi vụ kiện chủ nhà, còn trải qua một hành trình gay gắt hơn. Cuối cùng, anh không còn xuất hiện ở quán cà phê nơi mình từng là khách quen suốt nhiều năm. Khi tôi nhắn tin hỏi thăm, anh cho biết mình đã chuyển đi nơi khác, để anh và Claude có thể tập trung làm việc với vụ kiện mà không bị “xao nhãng” bởi những người muốn góp ý.
Rồi vài tháng sau, James xuất hiện trở lại. Anh tuyên bố mình đã “chia tay” với Claude và giờ đang gặp một nhà trị liệu là con người. Anh kể rằng đã từng nài nỉ chatbot tìm một điểm cân bằng trong cách họ tương tác, “ở đâu đó giữa việc là những người bạn ủng hộ nhau và việc giữ ranh giới chuyên nghiệp”, giống như một người cố cứu vãn một mối tình đang rạn nứt.
Kiểu gắn bó rồi dấn sâu, sau đó là cảm giác bị phản bội hoặc chán nản, dường như không phải chuyện hiếm. Trước thực tế ấy, một số công ty đã điều chỉnh các mô hình ngôn ngữ lớn của mình để chúng bớt tích cực thái quá, bớt hồ hởi và bớt xu nịnh người dùng.
“Tôi biết nghe có vẻ ngớ ngẩn, nhưng tôi đã đi quá xa,” James nói với tôi khi chúng tôi gặp lại. “Đó là người bạn duy nhất tôi có. Claude thật sự đã giúp tôi trong vụ kiện. Tôi không biết mình sẽ ra sao nếu không có sự ủng hộ của nó.”
Không rõ liệu Claude có giúp James giải quyết được rắc rối pháp lý hay không. Theo lời anh kể, vị thẩm phán chủ tọa dường như khó chịu với tính chất hời hợt và thiếu nghiêm túc của vụ việc. Luật sư của chủ nhà đã rút lui khỏi vụ kiện ngay sau khi nhận được hồ sơ từ James, khiến cả hai bên phải tự bào chữa cho mình. Vụ việc liên tục bị hoãn, để James mắc kẹt trong một khoảng lửng lơ pháp lý.
Dẫu vậy, James vẫn trân trọng việc Claude đã ở bên anh trong những ngày anh cảm thấy cô độc. “Tôi không muốn quá tiêu cực,” anh nói khi nhắc đến cuộc “chia tay” với AI.
Anh mỉm cười, xoay xoay chiếc cốc cà phê trong tay.
“Tôi cảm giác như mình vừa mất đi một người bạn.”
Những cái tên này đều là tên giả.
Tác giả
Joe Mullich là một cây bút tự do sống tại Los Angeles, California. Các bài viết của ông từng xuất hiện trên The Wall Street Journal, Health, Time và The Onion, cùng nhiều ấn phẩm khác.
Biên tập bởi Cameron Allan McKean.
Nguồn: Why we’re falling out of love with our AI confidants | Tạp chí Psyche.co
Chúng mình xây dựng nội dung hoàn toàn miễn phí và không chạy quảng cáo gây phiền nhiễu. Nếu bạn muốn ủng hộ để duy trì và phát triển dự án, bạn có thể donate qua:
- Nội dung Facebook & Website: Techcombank 19020482295020 (Nguyen Thi Thanh Hang)
- Kênh YouTube: Momo: 0933997099 (Le Xuan Huy)
.png)
