Máy tính đếch quan tâm

may-tinh-dech-quan-tam

Sự bất khả của những cỗ máy biết suy tư

Năm 1965, Herbert Simon, một trong những nhà sáng lập ngành khoa học Trí tuệ nhân tạo (AI), đã phán rằng “trong vòng 20 năm tới, máy móc sẽ có khả năng làm bất cứ công việc gì mà con người có thể làm”. Đương nhiên, ông ấy đã sai – nhưng có lẽ ông chỉ sai về mặt thời gian.

Nếu Simon thấy những gì máy móc làm được – 55 năm sau khi đưa ra nhận định trên – chắc chắn ông cũng há mồm kinh ngạc. Giờ đây, ngay cả một chiếc điện thoại di động thông minh cũng có năng lực tính toán mạnh hơn tất thảy máy tính trên thế giới năm 1965 gộp lại. Và rất nhiều luận cứ triết thuyết “trù dập” năng lực AI từ những thập kỷ 1960-1970 đã không còn tồn tại, khi công nghệ này ngày càng có những phát triển vượt bậc. Cũng năm 1965, triết gia Hubert Dreyfus tuyên bố “không có chương trình máy tính nào có thể chơi được cờ vua, dù chỉ ở mức độ nghiệp dư”, và ngay sau đó đã “bị” chứng minh là sai. Năm 1997, Deep Blue của IBM đã đánh bại nhà vô địch Garry Kasparov, phá hủy toàn bộ ý tưởng cho rằng cờ vua đẳng cấp thế giới là thứ mà máy tính không thể thực hiện được; mới đây, Kasparov nhận xét “ngày nay, một trò chơi cờ trên laptop cũng có thể dễ dàng đả bại Deep Blue“. Và những tuyên bố quen thuộc rằng máy tính không bao giờ có thể sử dụng được kiến thức lưu trữ của con người, đã bị lung lay vào năm 2011, khi Watson – phần mềm trí tuệ nhân tạo do IBM phát triển với mục đích đưa ra lời đáp cho các câu hỏi có cấu trúc ngôn ngữ tự nhiên – đã vượt qua mọi đối thủ con người, giành giải cao nhất 1 triệu đô-la trong gameshow Jeopardy! nổi tiếng của Mỹ.

Những kẻ hoài nghi AI từng tuyên bố máy tính sẽ không bao giờ có thể nhận dạng khuôn mặt, giọng nói, dịch lời nói ra văn bản hay chuyển bản viết tay thành bản in. Những việc đó, ngày nay một chiếc điện thoại di động cũng làm được tất. Dreyfus từng chế nhạo những tuyên bố vĩ đại của AI, trong một bài báo châm biếm năm 1968: “một ý tưởng mới về quà tặng… Chiếc máy tính nhỏ huyền thoại, có giá khoảng 20 đô-la, hoạt động bằng pin, trông giống một cái máy đánh chữ di động, có thể lập trình giống như bất kỳ máy tính lớn nào, để dịch tiếng nước ngoài, chẩn đoán bệnh tật, thậm chí đưa ra dự báo thời tiết”. Sự hoang đường y chang khoa học viễn tưởng thời đó, giờ đã hiện hữu hàng ngày trong thời đại chúng ta.

Phán đoán của Simon đã sai, nhưng có thể thấy chỉ cần vài thập kỷ, AI – công nghệ giúp điện thoại thông minh hoạt động – đạt được thành tựu thật kinh ngạc. Những thành tựu này có được một phần nhờ vào sự phát triển của phần cứng (đặc biệt là tốc độ xử lý và kích thước ngày càng nhỏ gọn của bộ vi xử lý) và một phần là do khả năng truy cập lượng dữ liệu khổng lồ trên internet – cả hai thứ mà Simon và Dreyfus đều không thể dự đoán. Nhưng điều đó có nghĩa là những phán đoán nhiệt thành ủng hộ AI vẫn là phổ biến. Người ta còn tin rằng AI không chỉ tạo ra các thiết bị “thông minh” thống trị cuộc sống con người, mà còn có thể tạo ra những cỗ máy biết tư duy thật sự. Dĩ nhiên, chưa ai nói những cỗ máy như vậy đã hiện hữu, nhưng nhiều triết gia và khoa học gia khẳng định, chúng sẽ sớm xuất hiện thôi.

Để đạt được điều đó, đòi hỏi các nhà nghiên cứu phải tạo ra một thứ mà họ gọi là “Trí tuệ phổ quát nhân tạo” (AGI). Nó không giống bất kỳ loại năng lực nào có mục đích chuyên biệt – như khả năng chơi cờ của Deep Blue – AGI là năng lực tổng quát để ứng dụng trí thông minh vào một loạt các vấn đề không có giới hạn trong thế giới thực: một thứ giống như trí tuệ con người. Triết gia David Chalmers tự tin tuyên bố “Trí tuệ phổ quát nhân tạo là hoàn toàn có thể… Có rất nhiều đỉnh núi ta phải vượt qua trước khi đạt được AGI cấp độ con người. Nhưng tôi nghĩ điều đó cuối cùng sẽ thực hiện được, trong khoảng thời gian từ 40 đến 100 năm tới”. Triết gia John Basl và Eric Schwitzgebel thậm chí còn lạc quan hơn, cho rằng “có khả năng chúng ta sẽ sớm có AI về mặt nhận thức ở cấp độ tinh vi như chuột hoặc chó”.

Sự nhiệt thành lý trí với năng lực của AGI được sánh bằng lượng tiền khổng lồ đầu tư vào việc cố gắng biến nó thành hiện thực. Tháng 7/2019, Microsoft thông báo đầu tư 1 tỷ đô-la vào OpenAI của Sam Altman, một công ty hoạt động nhằm mục đích ứng dụng AI vì “lợi ích của toàn nhân loại”. Năm 2014, Google mua lại Deep Mind của nhà khoa học máy tính – thần kinh học Demis Hassabis, với giá 500 triệu đô-la. Thành tích nổi bật nhất của Deep Mind là sản sinh ra cỗ máy AlphaGo, đánh bại Lee Sedol, nhà vô địch cờ vây thế giới vào năm 2016. Cần phải nói là cờ vây phức tạp hơn nhiều so với cờ vua – được cho là trò chơi phức tạp nhất mà con người từng nghĩ ra – và các phương pháp chơi cờ tiêu chuẩn của AI chưa bao giờ áp dụng thành công cho trò chơi này. Các phương pháp tính toán mà AlphaGo sử dụng, được coi là một trong những chìa khóa để “hóa giải trí thông minh”, như chính những người sở hữu Deep Mind tuyên bố.

Tuy vậy, trong tác phẩm mới “The Promise of Artificial Intelligence” của Brian Cantwell Smith – nhà triết học và khoa học, chuyên gia trong các lĩnh vực khoa học nhận thức, khoa học máy tính, nghiên cứu thông tin và triết học, đặc biệt là bản thể học – lại chứa đầy biểu hiện hoài nghi về những tuyên bố nhân danh AI. Lập luận tổng quát của ông dựa trên sự phân biệt giữa cái mà ông gọi là “năng lực tính toán” và “năng lực phán đoán“. Ở đây, “năng lực tính toán” được hiểu theo nghĩa từ nguyên của nó: chỉ như một phép tính, như phép cộng, phép trừ. Ngược lại, “năng lực phán đoán” phải là một cái gì đó cao vời hơn thế. Nó được Smith mô tả là “năng lực hoặc cam kết mang tính hệ thống, bao trùm, liên quan đến sự cam kết của hệ thống tổng thể đối với thế giới tổng thể”. Suy nghĩ của con người không chỉ liên quan đến một số hình thức đại diện đơn giản về những thứ xung quanh, mà là sự tham gia toàn thể về mặt cảm xúc và đủ đầy về mặt giá trị vào thế giới khách quan. Điều này, hẳn là máy tính không bao giờ có thể làm được. Như triết gia John Haugeland (người có ảnh hưởng lớn đối với Smith) từng nói, “máy tính đếch quan tâm”. Đây không phải là lời xỉa xói cay độc mà chính là điều kiện tiên quyết của “khả năng phán đoán” theo cách hiểu của Smith và bất cứ thứ gì tương đương với một AGI thực sự, đều cần phải thực hiện “khả năng phán đoán” chứ không đơn thuần chỉ là “khả năng tính toán“.

Tác phẩm làm một khảo sát ngắn gọn và dễ hiểu về hai giai đoạn chính trong lịch sử AI. Giai đoạn đầu tiên, bắt đầu từ thập kỷ 1960, mà Haugeland đặt tên là “Good Old-Fashioned AI” (GOFAI) giúp giải quyết các vấn đề tính toán bằng cách sử dụng biểu diễn rõ ràng các nguyên lý chung và áp dụng chúng vào các tình huống cụ thể (như là thực hiện chứng minh một định lý toán học hoặc trình bày một lập luận logic). “Làn sóng thứ hai” của AI, xuất hiện vào thập kỷ 1980, theo hướng ngược lại, có thể diễn giải ngắn gọn là: rút ra kết luận tổng quát từ một lượng lớn dữ liệu đơn giản đầu vào. Phương pháp tiếp cận này, được gọi là học máy hoặc học sâu, đã đạt được thành tựu đáng kể ở những thứ mà GOFAI thực hiện rất tệ, như nhận dạng mẫu hoặc cập nhật tri thức từ cơ sở dữ liệu đầu vào.

Rồi sau đó người ta cũng nhận ra, làn sóng AI đầu tiên đã hiểu sai hoàn toàn bản chất của tư duy: suy nghĩ của con người khó mà tương đồng với những phép tính toán hay chứng minh định lý. Nhưng Smith còn đi xa hơn, ông lập luận “vấn đề sâu xa là nó đã nhận thức sai về thế giới khách quan”. GOFAI giả định rằng “thế giới bị chia nhỏ thành những đối tượng rời rạc”, và do đó nó đã phân tách các suy luận của con người ra các thành phần nhỏ hơn bằng cách sử dụng logic hình thức (là ý tưởng cơ bản làm nền tảng cho tính toán hiện đại). Smith lập luận rằng học thuyết của làn sóng AI đầu tiên giả định rằng thế giới được cấu tạo và tuân theo một ngôn ngữ có cấu trúc logic: các đối tượng tương ứng với tên gọi, các thuộc tính tương ứng với tính chất. Mọi thứ hòa hợp với nhau trong thế giới khách quan khi các ký hiệu, biểu tượng khớp với nhau trong một ngôn ngữ hình thức. Smith tuyên bố đây chính là lý do khiến GOFAI thất bại: nó không hiểu rằng “thế giới mà chúng ta đang sống vô cùng phong phú và lộn xộn”, vốn không bao giờ có dạng “cho trước”, hay được phân chia thành các đối tượng rõ ràng.

Theo Smith, làn sóng AI thứ hai đã tránh được sai lầm này. Nó không giả định thế giới là các mô hình dữ liệu (ontology) hoặc cấu trúc được “cho trước”, và do đó đạt được nhiều tiến bộ trong các lĩnh vực mà GOFAI thất bại: như nhận dạng khuôn mặt, xử lý văn bản và nổi tiếng nhất chính là trò chơi cờ vây. Tính năng đặc biệt của máy học sâu là khả năng phát hiện các mẫu trong khối lượng dữ liệu rất lớn (đôi khi khổng lồ). Máy móc “học” bằng cách được lập trình viên cho biết mẫu nào là quan trọng và sau một thời gian học, chúng có thể tạo ra kết quả (như các bước di chuyển trong trò chơi) khiến ngay cả lập trình viên cũng phải ngạc nhiên. Điều này ngược hẳn với các ứng dụng trong làn sóng AI đầu tiên, cố gắng dự đoán thế giới thực sẽ phản hồi thế nào trong các tình huống hoàn toàn có thể hình dung. Những cỗ máy AI sơ khai này chỉ hoạt động được trong môi trường có nhiều ràng buộc rất hạn chế, người ta còn gọi là “microworlds”.

Tuy nhiên, Smith cũng cho rằng không nên quá lạc quan về khả năng tạo ra được AGI của làn sóng AI thứ hai. Học máy không chỉ bắt đầu với quy tắc chung để tạo ra các giả định bản thể học, mà nó còn bắt đầu với dữ liệu đã được tiền xử lý bởi con người (như phân loại khuôn mặt hoặc xe cộ tại một giao lộ). Smith khẳng định, nhiều chương trình học máy chỉ “dành riêng cho việc phân loại đầu vào thành các nhóm có nguồn gốc và công dụng rõ ràng cho mục đích sử dụng của con người”. Như vậy, dù cho chúng có đáp ứng nhạy bén hơn với thế giới lộn xộn này đi nữa, các cỗ máy AI làn sóng thứ hai vẫn bị ràng buộc bởi việc phân lớp của chính các lập trình viên trong thế giới thực – mà thực sự là, người ta rất khó biết chúng được thiết kế ra sao.

Smith đoan chắc, những thành công dù vang dội gần đây của AI cho ta quá ít lý do hoặc chẳng có lý do gì để tin vào khả năng hiện thực của những cỗ máy biết tư duy thật sự. Sự phân biệt rõ ràng giữa “khả năng tính toán” và “khả năng phán đoán” là một nỗ lực quan trọng để xác định những gì còn thiếu sót trong các mô hình AI. Như vậy, ông đã lặp lại lời chỉ trích của Dreyfus và một số người, rằng AI sẽ không thành công trong việc tạo ra một cỗ máy biết tư duy thực sự, trừ khi bằng một cách nào đó chúng có thể nắm bắt được “ý thức”. Và ý thức (là một phần trong “khả năng phán đoán” của Smith) không thể được nắm bắt theo kiểu “các quy tắc và biểu diễn” của GOFAI, cũng như không thể theo kiểu lấy các mẫu đại diện từ các khối dữ liệu cực lớn.

Đưa ra quan điểm về “khả năng phán đoán“, thực ra Smith không cần những luận cứ bản thể học đầy tham vọng, rằng thế giới không có sự phân chia hay ranh giới tự nhiên, rằng mọi sự phân lớp chỉ đơn giản là kết quả cảm nhận của con người… Có thể những tuyên bố này là đúng, nhưng cũng có thể không. Triết học và khoa học đã vật lộn với nhau hằng thế kỷ, và chúng cũng đáng để tranh luận. Nhưng chúng ta không cần phải tranh luận để xác định sự thiếu sáng suốt của ý tưởng rằng, AGI sẽ xuất hiện trong nay mai.

Sự thiếu sáng suốt này bắt nguồn từ một điều gì đó trong bản chất nội tại đối với sự thành công của chính AI. Vì lẽ, bất chấp sự phức tạp và tinh vi của học máy, thực tế là những thứ giống như cờ vua hay cờ vây, chỉ là một trò chơi. Chúng có các luật lệ, quy tắc và một kết quả rõ ràng làm mục tiêu cho người chơi. Máy học sâu vẫn được sử dụng để đạt được mục tiêu xác định – chiến thắng trò chơi. Ý nghĩa của mục tiêu được nêu rõ rành trước khi bật máy. Phần mềm nhận dạng giọng nói và khuôn mặt cũng thế. Chúng có một mục tiêu rõ ràng – nhận biết các từ ngữ và khuôn mặt – và những thành công hay thất bại trong việc đạt được mục tiêu này, phụ thuộc vào dữ liệu đầu vào giúp huấn luyện bộ máy (như Smith khẳng định, “nhận biết” ở đây có nghĩa là: ánh xạ chính xác một hình ảnh vào một nhãn cho trước – không hơn không kém).

Nhưng mục tiêu của “trí tuệ phổ quát” có thể là gì? Chúng ta đặc tả các thuật ngữ trừu tượng về các vấn đề mà “trí tuệ phổ quát” đang cố gắng giải quyết như thế nào? Tôi nghĩ thật công bình khi nói rằng không một ai – dù là chuyên gia trong lĩnh vực AI, triết học hay tâm lý học – có thể nghĩ ra bất kỳ ý tưởng nào để trả lời câu hỏi này. Có thể cho rằng, điều này không phải bởi vì nó là một câu hỏi thực nghiệm đặc biệt khó nhằn, mà rõ ràng nó không phải là một câu hỏi hợp lý. Tôi đồ rằng ai đó có thể phản bác, theo tinh thần của Herbert Simon (người phát triển ứng dụng AI nổi tiếng gọi là “General Problem Solver”), rằng “trí tuệ phổ quát” là khả năng tổng hợp để giải quyết các vấn đề về nhận thức. Điều này nghe có vẻ ổn cho đến khi ta tự hỏi làm thế nào để xác định các vấn đề nhận thức mà ta phải sử dụng trí tuệ của chính mình để giải quyết. Tổng quát hóa, bằng cách nào chúng ta xác định được những vấn đề này là gì?

Ví dụ, hãy xem xét những thách thức phải đối mặt khi ta cố tạo ra một cuộc trò chuyện chân thực với máy tính. Các app trợ lý như Siri, Alexa làm rất tốt việc “nhận dạng” và tổng hợp giọng nói để phản hồi. Nhưng rất nhanh chóng, bạn sẽ truy đến tận cùng tài nguyên của chúng và nhận được những phản hồi “soạn sẵn” (kiểu “đây là một số trang web liên quan đến yêu cầu của bạn”). Chắc chắn, một lý do cho điều này chính là cuộc trò chuyện không phải là hoạt động có một mục tiêu dễ diễn đạt, và vì vậy không thể chỉ định trước nhiệm vụ cho Siri hay Alexa. Nếu mục tiêu của cuộc trò chuyện là tìm thông tin về một chủ đề, thì việc hướng bạn đến một trang web có thông tin liên quan là một cách đáng tin cậy để đạt được mục tiêu đó. Nhưng đương nhiên, đây không phải là điều duy nhất mà con người hướng đến khi trò chuyện với người khác.

Vậy thì, mục tiêu tổng quát của cuộc trò chuyện là gì? Không chỉ có một thôi đâu. Chúng ta trò chuyện để giết thời gian; để chia sẻ cảm xúc, bày tỏ cảm nhận và mong muốn của mình; để tìm hiểu về người khác; để vui vẻ; để có kiến thức; để giáo huấn người khác; để kiếm tiền… vân vân và mây mây. Nhưng nếu cuộc trò chuyện không chỉ có một mục tiêu duy nhất, thì càng ít có khả năng là “trí tuệ phổ quát” cũng chỉ có một mục tiêu. Vì vậy, chẳng có gì ngạc nhiên nếu các nhà nghiên cứu AI phải “uýnh nhau” để xác định “miền nhiệm vụ” cho AGI.

Tác phẩm của Smith cho thấy, khả năng AGI đã bỏ qua sự khác biệt khá lớn giữa các lĩnh vực được xác định tương đối rõ ràng (nơi mà AI đã có một số thành công nhất định) và các lĩnh vực mà hầu như chưa được xác định về “trí tuệ phổ quát“. Điều này, tự nó đã đủ lý do để hoài nghi việc ngoại suy quá đáng khi so những thành công ngoạn mục của AI trong thực tế với khả năng thực sự của AGI. Các lập luận của Smith về các luận cứ bản thể học của AI, bất kể chúng có giá trị ra sao, cũng không quá cần thiết để khẳng định quan điểm này.

Tuy nhiên, tôi ngờ rằng nhiều người vẫn còn cảm giác dai dẳng rằng, AGI chắc chắn khả thi, và rằng sự khác biệt giữa suy nghĩ của con người và những gì máy tính có thể làm được, chỉ tồn tại ở một vấn đề: sự phức tạp. Điều gì nằm sau sự kiên định không thể lay chuyển này? Một quan niệm phổ biến hẳn là: bộ não con người chỉ là một cỗ máy sinh học (và do đó là vật chất) phức tạp, và như vậy về nguyên tắc, hẳn phải có một khả năng tái tạo lại những gì bộ não con người có thể làm (suy nghĩ, nhận thức, cảm giác, tưởng tượng, ý thức…) bằng cách dựng lên một cái gì đó hoạt động giống hệt như não bộ con người. Và bất cứ thứ gì dựng lên được sẽ là một phiên bản nhân tạo các tiến trình tinh thần của chúng ta: và đó là một AGI.

Lập luận này dựa trên hai quan niệm: thứ nhất, suy nghĩ và các tiến trình tinh thần khác diễn ra trong não; thứ hai, bộ não là một cỗ máy hoặc một cơ chế. Vì thế, nếu ta có thể khám phá ra các nguyên tắc làm cho cơ chế này hoạt động và nếu có đầy đủ công nghệ, thì ta sẽ tạo ra một cỗ máy thực hiện các nguyên tắc này mà không bỏ sót bất cứ thứ gì. Một trong những nhà tiên phong của phương pháp học sâu, Yoshua Benigo, nói theo quan niệm này: “Tôi không biết sẽ mất bao nhiêu thời gian, nhưng bộ não con người là một cỗ máy. Đây là một vấn đề rất phức tạp và chúng tôi chưa hiểu đầy đủ về nó, nhưng không có lý do gì để tin rằng chúng tôi không thể tìm ra những nguyên tắc đó”.

Tất nhiên, không có gì phải nghi ngờ nền khoa học kỹ thuật ngày nay, trong việc dựng lên một bản sao nhân tạo y hệt như não người. Nhưng nếu tin rằng chúng ta là những sinh vật vật chất cùng tận – nghĩa là, nếu lấy đi mọi phần vật chất của mình thì không còn sót lại một thứ gì trong chúng ta – thì về nguyên tắc, cái sự tái tạo đó dường như là có thể, ngay cả khi nó không bao giờ thành hiện thực. Giả sử tiếp theo, một nhà khoa học lỗi lạc nào đó trong tương lai, tạo tác được một công trình nhân tạo, trong đó tích hợp mọi thứ mà một con người (gồm cả bộ não) có thể làm. Rõ ràng là tạo tác này cũng có thể suy nghĩ, vì suy nghĩ là một trong những điều mà con người phải làm. Không thể phủ nhận rằng việc tạo ra một tạo tác nhân tạo của một con người (gồm cả mọi tính năng) sẽ tạo ra một “trí tuệ nhân tạo”, theo nghĩa hiển nhiên: đơn giản bởi vì trí thông minh là một trong những đặc tính của con người.

Câu hỏi đặt ra ở đây là, chuyện này có liên quan gì đến AI không? Nếu như phương thức để tạo ra một bộ máy nhân tạo biết tư duy thực sự, là trước tiên phải tìm hiểu cách thức hoạt động của não bộ, thì bạn sẽ mong đợi các nhà nghiên cứu AI cố gắng tìm ra cách thức bộ não hoặc tâm trí thực sự hoạt động – nghĩa là họ sẽ trở thành nhà khoa học thần kinh hoặc nhà tâm lý học. Nhưng đó không phải là cách mà các nhà nghiên cứu AI đang thực hiện. Cũng giống như việc phát minh ra máy bay không bắt buộc phải tạo ra một thứ gì đó bay đúng như chim, do đó mà các nhà phát minh AI không thấy bị ràng buộc phải sao chép đúng y các hoạt động thực tế của não bộ con người. Và mặc dù trên thực tế là máy tính học sâu sử dụng cái được gọi là “mạng thần kinh”, nhưng ở đây, sự tương đồng với não bộ ở mức độ cực kỳ trừu tượng. Quả thực, nhiều nhà tiên phong trong lĩnh vực học sâu tự đặt ra những câu hỏi rất trừu tượng về trí thông minh nói chung – Benigo nói rằng mục tiêu của ông là “hiểu được các nguyên tắc chung của trí thông minh” – hơn là với mớ hỗn độn về hoạt động thực tế của trí óc hoặc não bộ con người.

Việc thiếu tập trung vào cách thức tâm trí con người thực sự hoạt động, đã đưa AI trở lại thời kỳ ban đầu và rõ ràng đây là một trong những điểm mạnh của AI. Bằng cách bỏ qua sự rối rắm trong suy nghĩ thực tế của con người và “phần ướt” lộn xộn trong não bộ, AI có thể giúp máy móc giải quyết những bài toán khó nhằn mà không cần phải bận tâm đến cách thức con người thực hiện. Watson của IBM “không bị ràng buộc bởi khối lượng hoặc bộ nhớ, có thể đọc hàng triệu tài liệu phi cấu trúc trong vài giây”. Đó không phải là điều con người có thể làm. Việc huấn luyện AlphaGo liên quan đến hàng triệu ván cờ vây – như nhà khoa học nhận thức và hoài nghi học sâu Gary Marcus đã chỉ ra, điều này “nhiều hơn mọi thứ mà một con người cần, để đạt đến đẳng cấp thế giới”. Có nghĩa là bất cứ thứ gì giải thích về thành công của AI, đều không tương đồng nhau về cách thức xử lý của những cỗ máy với cách suy nghĩ của con người. Do đó, IBM không nên tuyên bố rằng Watson “được xây dựng để phản ánh quá trình học tập giống như con người, là một khuôn khổ nhận thức chung mà con người sử dụng để đưa ra các quyết định của họ”.

Trên thực tế, AI không phụ thuộc vào bất kỳ nghiên cứu tâm lý hoặc khoa học thần kinh cụ thể nào. Vì thế, việc não bộ là một cơ chế vật chất, mà về nguyên tắc có thể được tạo tác nhân tạo, cũng không ủng hộ quan niệm rằng AI (như hiện thực của nó) có thể tạo ra được AGI. Thực ra, với cách thức mà AI đang tiến hành, trong sự cách ly hoàn toàn với khoa học thần kinh, một khả năng chắc chắn là: bất kỳ nỗ lực tái tạo bộ não nào cũng sẽ đòi hỏi những ý tưởng rất khác so với những ý tưởng mà AI hiện nay đang áp dụng. Nói như vậy không phải là để chê bai AI và những thành tựu của nó; mà chỉ để nhấn mạnh một sự thật hiển nhiên rằng: AI không phải và chưa bao giờ là một lý thuyết về tư duy của con người.

Các tranh luận khoa học và triết học về AI có xu hướng dẫn đến một trong hai thái cực: hoặc là, (1) các cỗ máy tư duy nhân tạo giống như con người chắc chắc sẽ sớm xuất hiện; hoặc là, (2) về nguyên tắc chúng hoàn toàn không thể. Chẳng có cách tiếp cận nào là hoàn toàn đúng. Một mặt, như Smith, Marcus đã giải thích, chúng ta chớ vội tin rằng: với những tiến bộ gần đây của AI, chúng sẽ hỗ trợ đắc lực cho khả năng thực sự của AGI. Nhưng mặt khác, rất khó để chối từ đoán định triết lý trừu tượng rằng: nếu ta có thể tạo tác bộ não con người theo cách mà ta tạo ra được một thứ gì đó có thể làm được mọi thứ mà bộ não đã làm, thì thứ đó sẽ được gọi là “bộ máy tư duy”, theo đúng nghĩa rõ ràng của cụm từ này. Tuy nhiên, khả năng đơn thuần đó không có nghĩa là AI ngày nay đã tiến bộ đến mức gần như có thể tạo được những cỗ máy tư duy thực thụ. Mà ngược lại: khi ta xem xét khả năng đó kỹ càng hơn, nó cho thấy lý do tại sao AI sẽ chẳng bao giờ làm được.

Bài viết của Tim Crane – Giáo sư Triết học tại Đại học Trung Âu – Biên tập viên Triết học Tạp chí TLS

Dịch bởi Lê Minh

Ảnh: Alex Knight on Pexels

Nguồn dịch: https://leminh.io/2022/09/promise-of-ai/

menu
menu