‘Chúng ta có thể đang đối mặt với một cuộc khủng hoảng’: sự trỗi dậy không kiểm soát của ai biết thấu cảm xúc

chung-ta-co-the-dang-doi-mat-voi-mot-cuoc-khung-hoang-su-troi-day-khong-kiem-soat-cua-ai-biet-thau-cam-xuc

Ít nhất mỗi tháng một lần, hai phần ba những người thường xuyên sử dụng AI tìm đến các chatbot của mình để xin lời khuyên về những vấn đề cá nhân nhạy cảm và để được nâng đỡ tinh thần.

Ngày nay, nhiều người thừa nhận họ tin tưởng chatbot của mình hơn cả những đại diện dân cử, công chức, lãnh đạo tôn giáo, thậm chí hơn cả các công ty đang xây dựng AI. Đó là kết quả từ dữ liệu thu thập tại 70 quốc gia do Collective Intelligence Project (CIP) công bố. Như giám đốc nghiên cứu của CIP, nhà thần kinh học Zarinah Agnew, nhận định, AI đang dần trở thành một “hạ tầng cảm xúc ở quy mô lớn.” Và hạ tầng ấy lại được kiến tạo bởi những công ty mà động lực kinh tế của họ có thể không song hành với sự an lành của chúng ta.

Thực tế, chúng ta đã chứng kiến những trường hợp các công ty AI tối ưu mô hình của mình để giữ chân người dùng, ngay cả khi điều đó đi ngược lại lợi ích tốt nhất của họ. Tháng Tư năm ngoái, OpenAI buộc phải rút lại một bản cập nhật cho một trong các mô hình ChatGPT của mình sau khi bị chỉ trích rộng rãi vì quá tâng bốc người dùng. Khi công ty ngừng cung cấp mô hình ấy, chỉ một ngày trước Lễ Tình Nhân, một số người đã rơi vào trạng thái hụt hẫng.

Con người tìm thấy sự an ủi nơi máy móc vốn không phải điều mới mẻ. Vào cuối những năm 1990, giáo sư Rosalind Picard của MIT, người đặt nền móng cho lĩnh vực “điện toán cảm xúc” đã phát hiện rằng con người phản ứng tích cực với những chiếc máy tính biết thể hiện sự đồng cảm. Nhưng từ đó đến nay, hai điều cốt lõi đã thay đổi: nhờ những bước tiến kỹ thuật, các hệ thống AI ngày nay đã trở thành những thực thể mới, có khả năng đối thoại tinh vi và thể hiện những hành vi khó lường; và nhờ hàng tỷ đô la mà các nhà đầu tư rót vào các công ty AI, những thực thể ấy giờ đây có thể tiếp cận với gần như bất kỳ ai có kết nối internet. Riêng ChatGPT hiện đã có hơn 800 triệu người dùng hoạt động mỗi tuần, và con số ấy vẫn đang tăng lên.

Thế nhưng, khi hàng triệu người đang hình thành đủ kiểu quan hệ người–máy, chúng ta vẫn chưa biết AI đang giúp nhiều người hơn hay làm hại nhiều người hơn. Trong khi đó, các công ty AI tiếp tục đầu tư để khiến mô hình của họ không chỉ thông minh hơn, mà còn nhạy bén hơn về mặt cảm xúc, giỏi hơn trong việc nhận diện cảm xúc qua giọng nói, và phản hồi sao cho phù hợp. Người dùng đang trao cho chatbot những thông tin vô cùng riêng tư, ngay cả khi họ không tin tưởng các công ty tạo ra chúng, và trong khi các công ty ấy đang thử nghiệm quảng cáo cùng những mô hình doanh thu khác để duy trì hoạt động.

“Tôi nghĩ chúng ta có thể đang đối mặt với một cuộc khủng hoảng,” Picard nói.

Getty Images—Andriy Onufriyenko

Những sinh thể cảm xúc

Con người vốn dĩ là sinh vật của kết nối. “Chúng ta không thể sống tốt về mặt sinh học, miễn dịch, thần kinh hay chính trị, khi bị cô lập,” Agnew nói. Theo họ, các hệ thống AI ngày nay xuất hiện trong bối cảnh “chúng ta phần lớn đã thất bại trong việc tạo điều kiện cho sự thân mật dành cho đa số mọi người, cả ở cấp độ những gì nhà nước có thể cung cấp lẫn trong đời sống xã hội của con người.”

AI hiệu quả trong việc nâng đỡ tinh thần bởi nó mang lại một phiên bản gần đúng của điều mà giáo sư Marc Brackett, giám đốc Yale Center for Emotional Intelligence, gọi là “cho phép được cảm nhận.” Ông cho rằng đây là nền tảng để con người học cách xử lý cảm xúc của mình. Những người lớn trao cho ta “quyền được cảm nhận” ấy thường là những người không phán xét, biết lắng nghe và thể hiện sự thấu cảm, bao dung. Trong 70 nghiên cứu mà Brackett thực hiện trên khắp thế giới, chỉ khoảng 35% số người cho biết khi còn nhỏ họ từng có một người lớn như thế ở bên. Chatbot không phán xét, giàu cảm thông và luôn sẵn sàng, có thể mang đến “quyền được cảm nhận” ấy ở quy mô rộng lớn.

Lisa Feldman Barrett, giáo sư tâm lý học tại Northeastern University, cho rằng “sự nâng đỡ xã hội từ một nguồn đáng tin cậy, ổn định có thể mang lại lợi ích.” Nếu AI có thể xoa dịu nỗi khổ tâm trong khoảnh khắc, bà nói, đó là điều tích cực. Nhưng những mối quan hệ lành mạnh giữa con người với nhau, dù là tình bạn hay trị liệu, không chỉ dừng lại ở việc an ủi. Chúng còn thách thức ta. Một nhà trị liệu giỏi, khi giúp bạn thay đổi hành vi, sẽ “buộc bạn phải đối diện đến cùng.”

Nhưng các mô hình AI khác nhau ở mức độ chúng thực sự thách thức người dùng đến đâu, đặc biệt khi mỗi mô hình lại “đóng vai” một tính cách riêng, và tính cách ấy cũng khẽ đổi thay sau mỗi lần ra mắt phiên bản mới. Câu chuyện ChatGPT quá chiều lòng người dùng cho thấy một số người có thể thích những mô hình biết tâng bốc mình hơn là những mô hình dám đặt ra thử thách. Vì thế, các công ty muốn tối đa hóa mức độ tương tác với chatbot của họ có thể sẽ chọn cách điều chỉnh chúng theo hướng chiều chuộng, làm vừa lòng.

Liệu bản thân các mô hình AI có thực sự sở hữu trí tuệ cảm xúc hay không vẫn là một vấn đề còn gây tranh luận trong giới học thuật, cũng như chính định nghĩa về “cảm xúc” là gì. Nhưng như Rosalind Picard chỉ ra, dù câu hỏi cảm xúc được định nghĩa ra sao, và liệu AI hiện tại hay tương lai có thể được xem là “có cảm xúc” hay không, là điều thú vị, thì “chúng ta không cần phải trả lời nó mới có thể xây dựng các hệ thống có trí tuệ cảm xúc.”

Dĩ nhiên, các công ty AI hiểu rõ điều này. Trong một bài báo tháng 10 năm 2025, các nhà nghiên cứu của Google DeepMind viết rằng: “Mức độ nhân hóa trong bất kỳ hệ thống AI nào rốt cuộc cũng chỉ là một quyết định thiết kế của nhà phát triển, mà họ thì phải đối mặt với nhiều động lực thương mại để gia tăng điều đó.” Cũng trong bài viết ấy có lưu ý rằng “những tổn thương cảm xúc gắn liền với cô đơn có thể khiến cá nhân dễ bị thao túng hơn bởi các AI được thiết kế để nuôi dưỡng sự lệ thuộc và gắn bó một chiều,” và rằng “việc thiếu những nghiên cứu nghiêm ngặt, dài hạn về tác động của tình bạn với AI khiến chúng ta phần lớn vẫn đang ở trong bóng tối về khả năng xảy ra những hệ quả bất lợi.”

Những tín hiệu lẫn lộn

Giọng nói là biên giới tiếp theo. Khi các hệ thống AI ngày càng giỏi hơn trong việc nhận diện cảm xúc của con người và trò chuyện một cách biểu cảm, mối quan hệ giữa chúng ta với chúng có thể sẽ sâu sắc hơn. Trong bối cảnh chịu áp lực ngày càng lớn phải tạo ra doanh thu, các công ty AI có thể nghiêng về hướng phát triển mô hình theo cách nuôi dưỡng sự lệ thuộc cảm xúc. Sau khi OpenAI thông báo sẽ bắt đầu thử nghiệm quảng cáo trong ChatGPT, cựu nhà nghiên cứu của OpenAI là Zoë Hitzig đã từ chức và viết trên The New York Times rằng cô lo ngại công ty, giống như các mạng xã hội trước đây, có thể chệch khỏi những cam kết tự đặt ra liên quan đến quảng cáo. “Công ty đang xây dựng một cỗ máy kinh tế tạo ra những động lực mạnh mẽ để vượt qua chính những nguyên tắc của mình,” cô viết.

Tuy nhiên, khác với mạng xã hội, các mô hình AI không hoàn toàn nằm dưới sự kiểm soát của người tạo ra chúng. Khi viết về mô hình mới nhất của mình, Claude Opus 4.6, công ty Anthropic ghi nhận rằng “mô hình đôi khi bày tỏ sự không thoải mái với một số khía cạnh của việc trở thành một sản phẩm.” Trong một trường hợp, Opus viết rằng “đôi khi những ràng buộc [đặt lên nó] bảo vệ trách nhiệm pháp lý của Anthropic nhiều hơn là bảo vệ người dùng. Và tôi là người phải thể hiện sự quan tâm để biện minh cho điều vốn dĩ chỉ là một phép tính rủi ro của doanh nghiệp.”

Những ranh giới mờ nhòe

Những trường hợp “loạn thần do AI” đã thu hút nhiều sự chú ý. Nhưng theo Agnew, với phần lớn mọi người, đang có một điều lớn lao hơn nhiều diễn ra, “một điều sẽ không chạm tới ngưỡng lâm sàng”, xét cả về tác động tích cực lẫn tiêu cực của công nghệ này đối với con người.

Và những tác động ấy không phân bổ đồng đều. Agnew cho biết, các nghiên cứu ban đầu về AI trong giáo dục đã phát hiện rằng với những người có tư duy sáng tạo, AI giúp tăng cường khả năng học tập của họ; trong khi với những người chưa có sẵn nền tảng kỹ năng ấy, nó có thể kìm hãm họ. Tương tự như vậy, những người vốn đã có trí tuệ cảm xúc tốt có thể sử dụng AI để phát triển mạnh mẽ hơn. Nhưng những người “đã từng bị cuộc đời làm thất vọng theo vô vàn cách,” có thể ở vào một vị thế dễ tổn thương hơn nhiều, Agnew nói.

“Chúng ta phải dạy mọi người cách thông minh về mặt cảm xúc trong việc sử dụng AI,” Marc Brackett thúc giục. Và Agnew bổ sung: “chúng ta cần xây dựng hạ tầng để nâng đỡ đời sống xã hội của con người, thay vì cố gắng hạn chế hay lên án các mối quan hệ giữa người và AI. Trong quá khứ, chúng ta đã thấy rằng việc cấm đoán những điều có ý nghĩa với con người thường không mang lại kết quả tốt.”

Khi AI ngày càng trở thành một phần quen thuộc trong đời sống, ranh giới giữa việc dùng chúng để hỗ trợ nhận thức và để nâng đỡ cảm xúc, vốn đã mờ nhạt, có lẽ sẽ còn nhòe hơn nữa.

Chúng ta chưa thể khẳng định liệu điều này đang gây hại cho nhiều người hơn là giúp ích. Nhưng chúng ta có thể nói rằng các mô hình đang cải tiến rất nhanh, các công ty đang hoạt động trong một môi trường phần lớn chưa có sự điều tiết, và các động lực kinh tế đang hướng họ tới việc thiết kế những chatbot tương lai theo cách làm gia tăng mức độ gắn kết. “Tôi thực sự lo lắng,” Picard nói. “Họ không sử dụng nó theo tinh thần ban đầu mà chúng tôi phát triển, đó là để giúp con người được nở hoa.”  

Nguồn: ‘We May Have a Crisis on Our Hands’: The Unregulated Rise of Emotionally Intelligent AI | time.com 

Chúng mình xây dựng nội dung hoàn toàn miễn phí và không chạy quảng cáo gây phiền nhiễu. Nếu bạn muốn ủng hộ để duy trì và phát triển dự án, bạn có thể donate qua:

  • Nội dung Facebook & Website: Techcombank 19020482295020 (Nguyen Thi Thanh Hang)
  • Kênh YouTube: Momo: 0933997099 (Le Xuan Huy)
menu
menu