Chatbots nhắc ta rằng, đối thoại tự nhiên cũng là một dạng nhân tạo

Người ta lo lắng về tính chân thực của các chatbot AI, nhưng thực ra, những băn khoăn tương tự cũng tồn tại trong từng cuộc trò chuyện hàng ngày giữa con người với nhau.
Làm thế nào để ta biết chắc rằng những lời ta đọc được là do con người viết ra? Đây là một câu hỏi ngày càng trở nên cấp thiết trong thời đại của trí tuệ nhân tạo hội thoại. Những công cụ như Bard của Google, Bing của Microsoft hay ChatGPT của OpenAI có thể tạo ra những bài luận đầy thuyết phục để trả lời các truy vấn của ta. Sự bùng nổ của công nghệ xử lý ngôn ngữ tự nhiên khiến ranh giới giữa điều thật và điều giả trở nên mơ hồ hơn bao giờ hết. Người ta không chỉ lo rằng ai đó có thể lợi dụng AI để giả mạo một bài viết như chính họ viết ra, mà còn sợ rằng những mô hình này có thể đe dọa đến giáo dục, báo chí, lập trình máy tính và thậm chí bất kỳ ngành nghề nào vốn phụ thuộc vào trí tuệ con người.
Thế nhưng, hoài nghi về bản chất của ngôn từ không phải là điều gì mới mẻ. Sự bất định về những gì ẩn sau lời nói vốn đã ăn sâu vào bản chất của giao tiếp. Từ trước đến nay, con người vẫn luôn phải đối diện với giới hạn của ngôn ngữ: làm sao ta có thể biết chắc rằng người đối diện thực sự nghĩ gì? Chatbots hiện đại chính là cơ hội để ta suy ngẫm về cách mà ta vẫn điều hướng những cuộc hội thoại hằng ngày. Hóa ra, chính những cuộc trò chuyện tự nhiên của con người cũng có thể giúp ta hóa giải những nghi hoặc mà AI hội thoại đặt ra.
Những nghi hoặc này không đơn thuần chỉ liên quan đến tính chính xác của lời nói. Dĩ nhiên, các mô hình ngôn ngữ lớn đôi khi vẫn mắc lỗi—hay còn gọi là "ảo giác". Một ví dụ đáng xấu hổ là khi Bard tuyên bố sai rằng Kính viễn vọng Không gian James Webb đã chụp bức ảnh đầu tiên về một hành tinh ngoài hệ Mặt Trời, trong khi thực tế, điều đó đã được Đài Thiên văn Nam Âu thực hiện từ năm 2004.
Nhưng sâu xa hơn cả, đó là những hoài nghi về ý nghĩa thực sự của ngôn từ. Khi đọc một đoạn văn do ChatGPT tạo ra, đôi khi ta khó có thể phân biệt được nó do con người hay máy móc viết. Dường như ranh giới giữa con người và công nghệ đang dần xóa nhòa. Nhưng thực chất, AI hội thoại chỉ đang khuếch đại những bất định vốn dĩ đã tồn tại trong giao tiếp tự nhiên của chúng ta.
Hãy thử tưởng tượng một tình huống quen thuộc: bạn nhận được một tin nhắn trước buổi hẹn hò, "Xin lỗi nhé, mình bị ốm rồi, không thể gặp tối nay được." Một sự hoài nghi lóe lên. Liệu cô ấy thực sự bị ốm? Hay đó chỉ là một lời nói dối lịch sự để tránh phải thừa nhận rằng cô ấy không muốn gặp bạn nữa? Nếu không có một tờ giấy khám bệnh làm chứng, bạn không thể biết chắc rằng câu nói ấy không chỉ đơn giản là một lời thoái thác theo phép lịch sự. Vấn đề của AI hội thoại cũng tương tự: nếu với con người, đôi khi ta còn ngờ vực lời nói của họ có thật lòng không, thì với chatbot, hoài nghi lại nằm ở chỗ liệu đó có thực sự là những lời từ con người hay không.
Hoài nghi về điều ẩn sau lời nói xuất hiện khi hội thoại trượt khỏi ranh giới của sự chân thực và rơi vào tính máy móc. Khi đó, ngôn ngữ trở thành một bức tường ngăn cách. Ta sợ rằng người đối diện—hoặc thậm chí là một cỗ máy—không thực sự nói ra điều mà họ nghĩ. Triết gia Stanley Cavell từng nói: “Nhận thức về thế giới nội tâm của nhau không thể vượt qua ranh giới của những biểu đạt bên ngoài, và chúng ta có lý do để thất vọng về những biểu đạt đó.”Đôi khi, ngôn từ khiến ta hụt hẫng vì chúng không thể cho ta thấy điều ta mong muốn: sự hiểu thấu trọn vẹn về tâm tư người khác, vượt ra khỏi những gì họ nói ra.
Photo by ABC Photo Archives/Disney/Getty Images
Có thể nghe có vẻ kỳ lạ khi nói rằng những khoảng trống trong giao tiếp tự nhiên của con người lại giống với sự bất định về tác giả của một văn bản AI. Rốt cuộc, những mô hình ngôn ngữ hiện đại đã đạt được những bước tiến công nghệ vượt bậc. Kiến trúc Transformer đã thay đổi hoàn toàn lĩnh vực xử lý ngôn ngữ tự nhiên bằng cách phân tích toàn bộ ngữ cảnh cùng một lúc, thay vì xử lý từng từ một theo trình tự như các mô hình cũ. Các cơ chế chú ý giúp AI đánh giá toàn bộ văn bản dựa trên ngữ cảnh và mức độ liên quan, tạo ra những câu trả lời mượt mà, không lặp lại, và mang tính nhân văn hơn bao giờ hết.
Tuy nhiên, nhìn lại cách ta vẫn luôn đối phó với sự nghi hoặc trong hội thoại thường ngày có thể giúp ta định hướng sự hoài nghi của mình đối với AI. Mong muốn "nhìn xuyên qua" lời nói của ai đó thực ra không hề đơn thuần, bởi ngôn ngữ vốn là một công cụ chung của xã hội. Nó giúp ta mở lòng với nhau, tạo ra sự gắn kết. Nhưng cũng giống như niềm tin vào AI, ngôn ngữ có thể bị rạn nứt. Khi sự kết nối ấy bị phá vỡ, ta lại quay về với nỗi hoài nghi: liệu những điều ta nghe thấy có thật sự phản ánh điều người kia nghĩ và cảm nhận?
Các giải pháp công nghệ hiện tại có thể giúp ta xoa dịu phần nào những nghi ngờ ấy. Các nhà nghiên cứu tại Harvard và MIT đã phát triển hệ thống "Phòng Kiểm Tra Mô Hình Ngôn Ngữ Lớn" để phân tích các đoạn văn và xác định xem chúng có phải do AI viết hay không. Các loại "chữ ký số" cũng đang được phát triển để đánh dấu văn bản AI, giúp ta phân biệt rõ hơn giữa nội dung do người viết và nội dung do máy tạo ra. Nếu tôi cầm trên tay một bài luận về Cách mạng Pháp của một sinh viên, việc nhận diện nguồn gốc của bài viết ấy sẽ giúp tôi biết chắc liệu sinh viên đó có sao chép từ ChatGPT hay không.
Khi ta nhìn AI hội thoại như một phần mở rộng của thực hành giao tiếp con người, thì sự "nhân tạo" trong nhu cầu tìm kiếm sự chắc chắn về nguồn gốc của ngôn từ lại càng hiện rõ. Bởi lẽ, khi ta dùng lời nói để tìm hiểu ý nghĩa thật sự của người khác, ta không đơn thuần chỉ tìm kiếm thông tin—ta tìm kiếm sự thấu hiểu, sự xác nhận. Như Cavell từng nói: "Sự xác nhận không chỉ là hiểu biết… mà còn là một hành động." Hội thoại không chỉ là trao đổi thông tin mà còn là một sự mời gọi đáp lại. Khi không được xác nhận trong không gian chung của giao tiếp, ta lại cố bám víu vào những tri thức mang tính lý trí như một sự an ủi.
Đây chính là sự "nhân tạo" của hội thoại tự nhiên: rằng đôi khi, chính ngôn từ lại trở thành rào cản giữa con người với nhau. Các nhà tâm lý học đã nghiên cứu về sự thôi thúc của con người trong việc tìm kiếm ý nghĩa vượt ra ngoài giới hạn của ngôn ngữ. Và đôi khi, chính sự tìm kiếm ấy lại tạo ra một ảo tưởng: rằng ngôn ngữ có hai "mặt đối lập", và chính nó đã dựng lên một bức tường ngăn cách thay vì mang con người đến gần nhau hơn.
Việc các mô hình ngôn ngữ lớn khiến ta hoài nghi về tác giả thực sự của những gì chúng tạo ra cũng nhắc ta rằng, công nghệ này vẫn chưa hoàn toàn được công nhận. Để khiến nó bớt xa lạ, ta nên sử dụng AI nhiều hơn, chứ không phải ít đi. Hãy thử tưởng tượng một thế giới nơi các giáo sư yêu cầu sinh viên nộp bản thảo do AI tạo ra trước khi hoàn thiện bài luận cuối cùng. Ngay cả những câu hỏi thảo luận trong lớp cũng có thể được dự đoán trước. Khi đó, sinh viên buộc phải tách bạch suy nghĩ thực sự của mình khỏi những phiên bản do thuật toán gợi ý. Trong thế giới ấy, AI hội thoại không còn là điểm đến cuối cùng của tri thức mà trở thành một phần của dòng chảy đối thoại giữa con người.
Kéo AI hội thoại vào quỹ đạo của giao tiếp tự nhiên cũng là cách ta nhìn nhận lại các mối quan hệ đạo đức giữa con người với nhau. Khi xem xét tác giả của một văn bản, mục đích sâu xa của ta không đơn thuần là tìm kiếm sự thật, mà là tìm ra ai – hay cái gì – chịu trách nhiệm cho những lời ấy. Việc giáo sư mong muốn sinh viên nộp bài viết từ tư duy của chính họ, chứ không phải của máy móc, phản ánh một khát vọng công bằng: đánh giá sinh viên dựa trên những gì họ thực sự muốn diễn đạt. Kiến thức có vai trò, nhưng quan trọng hơn nhiều là sự rèn giũa tư duy phản biện, kỹ năng giao tiếp hiệu quả và khả năng lập luận thuyết phục – những yếu tố giúp ta tham gia vào cuộc đối thoại một cách có chủ ý.
Chúng ta thực sự tham gia vào hội thoại khi có thể đưa ra lý do cho những lời mình nói. Theo triết gia Elizabeth Anscombe, đó là khi ta trả lời được câu hỏi: “Tại sao?” Trong khi đó, AI hội thoại không có chủ đích với ngôn từ – nó chỉ đơn thuần dự đoán từ tiếp theo sẽ là gì. Như triết gia Jeff Speaks từng giải thích: Dự đoán dựa trên bằng chứng về khả năng một sự kiện sẽ xảy ra, còn những phát ngôn có chủ đích lại dựa trên lý do ta thấy sự kiện ấy đáng mong đợi.
Mô hình LaMDA đã huấn luyện Bard của Google bằng hơn 1,56 nghìn tỷ từ và vận hành 137 tỷ tham số – thế nhưng nó vẫn tuyên bố sai rằng Kính viễn vọng Không gian James Webb là thiết bị đầu tiên chụp ảnh một ngoại hành tinh. Những dự đoán có thể sai, nhưng AI hội thoại sẽ không bao giờ có thể nói một điều gì đó với một ý định thực sự.
Chính nhờ ngôn ngữ mà ta tìm thấy tiếng nói của mình, nhận trách nhiệm về lời nói và hành động, đồng thời giữ mình trong mối liên kết với người khác. Tôi có thể dùng ChatGPT để viết một lá thư bằng tiếng Pháp. Nhưng nếu làm vậy, tôi cũng tự tước đi cơ hội thực sự nói tiếng Pháp và hòa mình vào cuộc sống khi đặt chân đến Paris. Hội thoại là cây cầu dẫn ta đến với cộng đồng. Thế nên, hãy học tiếng Pháp cùng ChatGPT như một người hướng dẫn! Cách tiếp cận này đã được nhiều người áp dụng.
Để xóa bỏ những hoài nghi về AI hội thoại, ta nên thừa nhận nó như một phần mở rộng của giao tiếp con người, chứ không phải một sự thay thế. Hãy xác định những tình huống sử dụng ngày càng cụ thể hơn. Ta có thể để AI hội thoại tạo đà – một cú chạy đà, nếu có thể nói vậy – cho những cuộc trò chuyện của chính mình.
Nguồn: Chatbots remind us that natural conversation is artificial too | Psyche.co