Trí tuệ nhân tạo và những vị chúa tể mới

Bài đăng ở Tia Sáng, số kỷ niệm 20 năm.
Ngô Quang Hưng — Nguyễn Xuân Long
Cảm ơn em họ biên tập!

Năm 1950, Alan Turing, cha đẻ ngành khoa học máy tính, đặt ra một câu hỏi đồng nghĩa với thách thức cho nhân loại: “Làm thế nào để biết được một chiếc máy tính có suy nghĩ hay không?”. Năm 1997, khi siêu máy tính Deep Blue hạ gục huyền thoại cờ vua Gary Kasparov trong trận đấu được coi là kỳ vĩ nhất của lịch sử cờ vua, cựu quán quân thế giới thừa nhận: “Tôi cảm thấy sự hiện hữu của trí thông minh ở phía bên kia bàn cờ!”. Ngày 16/2 năm nay, thêm hai bộ óc siêu việt khác của loài người đối mặt – và thua cuộc – một “bộ óc” mới trong ngành máy tính mang tên Watson. Với thành tựu mới nhất này, liệu chúng ta có thể nói gì về tư duy của máy, và hy vọng gì ở ngành trí tuệ nhân tạo trong tương lai?

1. Sự lên ngôi của vị chúa tể mới

Hỏi: Rõ là “Thời buổi gian khó”! Một cơn động đất lớn tấn công New Madrid, Missouri, vào ngày 7 tháng 2 năm 1812, cùng ngày mà tác giả này tấn công Anh Quốc. (“Hard times,” indeed! A giant quake struck New Madrid, Missouri, on Feb. 7, 1812, the day this author struck England.)

Đáp: Ai là Charles Dickens? (Who is Charles Dickens?)

Đây là một ví dụ điển hình của trò chơi truyền hình nổi tiếng tại Mỹ mang tên Jeopardy!. Khác với các loại trò chơi đố vui có thưởng theo kiểu “Ai muốn làm triệu phú”, Jeopardy! đòi hỏi kiến thức sâu rộng của người chơi vì các câu hỏi chứa đầy cạm bẫy (chơi chữ, đảo ngữ nghĩa, gợi ý mang tính lừa phỉnh, vân vân) đòi hỏi phải xử lý thông tin cực kỳ phức tạp trong một thời gian cực ngắn. Một điểm đặc biệt nữa là câu hỏi và câu trả lời của Jeopardy! đảo vị trí cho nhau: câu hỏi là câu trả lời mang tính xác định về một đối tượng nào đó, còn câu trả lời là một câu hỏi về đối tượng này. Trong ví dụ kể trên, cụm từ “Thời buổi gian khó” (hard times) nhắc đến một tác phẩm nổi tiếng của Charles Dickens. “Thời buổi gian khó” cũng được dùng với ngụ ý về sự gian khó gây ra bởi cơn động đất. Từ “tấn công” (struck) được dùng với hai nghĩa, nghĩa đen nói về tác động của trận động đất, còn nghĩa bóng nói về ngày chào đời của Charles Dickens (ngày động đất là ngày sinh của Dickens). Các nhà vô địch Jeopardy! vì thế thường được xem là đại diện cho trí thông minh và sự uyên bác.


Luật chơi của Jeopardy! đại khái như sau. Mỗi trận đấu gồm ba vòng, với ba đấu thủ. Hai vòng đầu mỗi vòng có 30 câu hỏi, chia làm 6 phạm trù, mỗi phạm trù 5 câu hỏi. Mỗi câu hỏi ở 2 vòng đầu có giá trị tiền nhất định. Sau khi nghe đọc câu hỏi các đấu thủ bấm nút tranh quyền trả lời. Trả lời đúng thì thắng số tiền của câu hỏi đó, trả lời sai thì bị mất số tiền này và còn bị trừ vào khoản tiền đã thắng. Mỗi đấu thủ thường chỉ có khoảng 1, 2 giây để bấm nút nếu không muốn bị giành mất quyền trả lời. Vòng thi cuối cùng chỉ có một câu hỏi duy nhất, thí sinh dùng tiền đã thắng để “đặt cược” ngay cả trước khi biết được câu hỏi. Thắng thì thắng thêm số tiền cược đó, còn thua thì bị trừ đi. Phạm vi đề tài thi rất “bao la”: lịch sử, sự kiện đương đại, văn học, nghệ thuật, khoa học, ngôn ngữ, chơi chữ, vân vân.

Hai huyền thoại hiện nay của trò chơi này là Ken Jennings (người thắng kỷ lục 74 trận liên tục trong năm 2004 với tổng số tiền thắng cuộc hơn 3 triệu đô la) và Brad Rutter (người thắng “cúp C1” – cúp các nhà vô địch Jeopardy! – với tổng số tiền thắng nhiều nhất trong lịch sử Jeopardy!: hơn 3 triệu rưỡi đô la). Từ 14 đến 16 tháng 2/2011 vừa qua, cả hai bộ óc siêu phàm này đã trải qua ba trận “đại chiến” lịch sử với một đối thủ mới tò te tên là Watson – một hệ thống máy tính của hãng IBM, được đặt tên để tưởng nhớ chủ tịch đầu tiên của hãng này là Thomas Watson.

Watson “nghiền nát” Ken và Brad – như Deep Blue đã từng hạ gục Kasparov gần 14 năm trước.

Ở câu hỏi cuối cùng của vòng thi đấu cuối cùng, bên cạnh câu trả lời (đúng) của mình, Ken Jennings tuyên bố nửa đùa nửa thật (trước khi biết rằng Watson cũng trả lời đúng câu hỏi này): “Cá nhân tôi hoan nghênh các vị chúa tể mới“.

2. Trí tuệ nhân tạo, từ logic cổ điển đến thống kê tính toán

Trước khi phủi tay xuề xòa về sự không cân sức của trận đấu David tí hon chọi Goliath khổng lồ này, ta phải cẩn thận xem lại xem … ai là David và ai là Goliath. Không thể chối cãi được rằng, dù là lính mới, Watson là một đối thủ khổng lồ, kích thước tương đương … 10 cái tủ lạnh, chứa khoảng 200 triệu trang tài liệu (bằng khoảng 1 triệu quyển sách), 16 Terabytes (16 nghìn tỉ bytes) bộ nhớ, và có khả năng xử lý 80 Teraflops một giây.

Tuy nhiên, kích thước và số lượng không nhất thiết tỉ lệ thuận với sự thông minh. Một triệu con khỉ không gõ được vở kịch Hamlet. Vả lại, dù có tính về số lượng thì sự mất cân xứng cũng không rõ ràng lắm là ngả về phía nào. Ken và Brad mỗi người có khoảng 100 tỉ neurons thần kinh, và có hơn 30 năm tuổi đời để học số kiến thức mà họ có, cộng với cả chục năm “kinh nghiệm chiến trường”: xử lý sự lắt léo của Jeopardy!. Watson ra đời khoảng 2004, có tổng cộng 2880 bộ vi xử lý POWER7 mới của IBM. Mỗi bộ vi xử lý gồm bốn lõi song song với tổng cộng khoảng 1,2 tỉ transitors, vị chi là gần 3 nghìn rưỡi tỉ transitors, gấp 35 lần số neuron thần kinh một người có. Thế nhưng, mỗi neuron thần kinh lại có sức mạnh tính toán mạnh gấp nhiều lần một transitor, vì mỗi neuron thần kinh là một bộ vi xử lý sinh học, cho dù thuộc loại sơ khai.

Những thành tựu khoa học và công nghệ nào đã mang lại thành công của Watson? Chiến thắng của Watson là thành tựu tổng hợp của nhiều phân ngành khoa học máy tính: thuật toán, các bộ vi xử lý, hệ xử lý song song, mạng máy tính, trí tuệ nhân tạo, cơ sở dữ liệu, vân vân. Trong khuôn khổ bài này chúng ta sẽ chỉ đề cập đến mảng trí tuệ nhân tạo (TTNT).

Ngay từ thời kỳ đầu của TTNT, người ta đã biết rằng một trong những yếu tố cần thiết làm nên một máy tính thông minh là khả năng biểu diễn và xử lý tri thức. Tri thức phải được mã hóa bằng một thứ ngôn ngữ mà máy tính có thể hiểu được. Logic đã là sự lựa chọn hiển nhiên, vì đó cũng là ngôn ngữ của bộ vi xử lý. Với một kho tri thức bằng ngôn ngữ logic, các vấn đề suy diễn biến thành các bài toán suy luận logic thuần túy, một địa hạt mà máy tính sẽ dễ dàng thống trị.

Cho đến tận những năm 80 của thế kỷ trước, người ta tập trung phần lớn sức lực vào vấn đề tự động hóa và cải thiện hiệu quả của suy diễn logic. Làm thế nào để tìm kiếm ra câu trả lời thật nhanh từ những quy luật định sẵn. Deep Blue chính là một ví dụ điển hình của sự thành công ngoạn mục trong công nghệ tìm kiếm trong một môi trường có quy luật chặt chẽ. Máy tính có thể chơi rất tốt các trò chơi loại này, khi mà các quy luật của cuộc chơi và mọi thông tin đã được cho trước rõ ràng.

Nhưng làm thế nào để thiết lập được kho tri thức định sẵn cho máy tính? Làm thế nào để kho tri thức ấy không ngừng được thu lượm, cập nhật và chắt lọc từ sự tiếp xúc của máy tính với thế giới bên ngoài? Máy tính có thể chơi cờ rất giỏi, nhưng khả năng thu lượm thông tin và thích ứng với bên ngoài còn thua xa một con chuột bạch. Và, dạng giao tiếp đặc biệt quan trọng chính là giao tiếp với con người. Làm thế nào để máy tính có thể giao tiếp được với con người, qua đó hấp thụ được kho tri thức của loài người thành của chúng, giả sử rằng chúng cũng được lập trình để có một nguyện vọng như vậy?

Trong thập niên đầu thế kỷ 21, sự phổ dụng của các công nghệ và kết quả khoa học ngành Học Máy (machine learning) đánh dấu một bước ngoặt thay đổi nền tảng quan trọng trong quá trình phát triển của ngành TTNT. Các công nghệ TTNT đã len lỏi vào tất cả các ngóc ngách của cuộc sống con người. Chúng ta dùng các công cụ tìm kiếm như Google hàng ngày, các bộ lọc thư rác từng phút (200 tỉ thư rác mỗi ngày). Các điện thoại cầm tay tí hon đời mới có thể nhận dạng tiếng nói tốt, và có cả phần mềm dịch nhanh giữa các thứ tiếng khác nhau. Chưa hoàn hảo nhưng hoàn toàn hữu dụng. Đã có xe tự lái được trong thành phốrô-bô thám hiểm Hỏa Tinh. Các thuật toán TTNT theo dõi tình trạng nhiễm trùng của trẻ sơ sinh, nhận diện nhân dạnghình ảnh tế bào, nhận dạng chữ viết tayvân tay. Các thuật toán Học Máy còn dùng để khám phá xâm nhập mạng và bảo vệ tấn công cơ sở dữ liệu từ bên trong. Các giao dịch tài chính từ chứng khoán đến thẻ tín dụng đều được các thuật toán học máy “theo dõi” gắt gao ở tốc độ nano-giây.

Những thành tựu này đạt được là do các nhà nghiên cứu TTNT nhận ra rằng “học” quan trọng hơn “biết”, khả năng đối chọi với tính bất định của thế giới thực quan trọng hơn khả năng tư duy theo một hệ thống logic làm sẵn. Nền tảng của TTNT hiện đại từ đó đã được chuyển từ logic cổ điển, chặt chẽ nhưng cứng nhắc, sang tính toán thống kê, lỏng lẻo hơn về mặt logic nhưng mềm dẻo, có tính ứng biến cao. Vấn đề học tập, cập nhật và chắt lọc tri thức từ dữ liệu thô, gọi vắn tắt là vấn đề Học Máy, đang trở thành lĩnh vực trung tâm của TTNT. Ngành học máy được phát triển trên nền tảng của xác suất thống kê và khoa học máy tính, với mục tiêu là tạo ra các thuật toán tự học giúp cho máy tính định hình được khái niệm, liên hệ các ý nghĩa, tìm kiếm ra các quy luật trên cơ sở các nguồn dữ liệu thô và nhiễu.

Một trong những nguồn dữ liệu quan trọng bậc nhất cho máy tính, đồng thời cũng là dạng dữ liệu phức tạp và nhiều nhiễu bậc nhất, chính là ngôn ngữ tự nhiên của loài người. Khác với ngôn ngữ logic của máy, ngôn ngữ của người rất linh hoạt và giàu có, thường không tuân theo các quy luật logic cứng nhắc. Các từ vựng trong ngôn ngữ của chúng ta thường là đa nghĩa. Các từ được kếp hợp với nhau qua các cấu trúc câu đa dạng, làm tăng nên khả năng biểu cảm gấp bội. Các câu lại được kết hợp với nhau tạo ra các ngữ cảnh có thể làm tăng sự mơ hồ hoặc thay đổi hẳn nội dung.

Trong Jeopardy!, giải mã cho được cách chơi chữ trúc trắc và các gợi ý đầy cạm bẫy để “hiểu” được câu hỏi mới chỉ là trở ngại đầu tiên cho Watson. Để tìm ra câu trả lời, các kỹ sư của IBM còn phải tìm cách giúp Watson tìm kiếm và đánh giá sự tin cậy của các câu trả lời có thể, từ kho dữ liệu khổng lồ được nạp sẵn gồm có các loại từ điển, thư viện Wikipedia, và các tác phẩm văn học. Watson phải tận dụng tất cả khả năng tính toán của mình để tìm ra câu trả lời nhanh và chính xác, vượt qua kinh nghiệm dày dặn và kho tri thức sâu rộng của hai địch thủ sừng sỏ bằng da thịt.

Các kỹ sư của IBM đã phải sử dụng hơn 100 phương pháp trong lĩnh vực học máy và xử lý ngôn ngữ để phân tích câu hỏi, tìm tòi nguồn ý của câu hỏi, tìm kiếm và đánh giá độ tin cậy các câu trả lời trong qua các kỹ thuật thống kê và học máy hiện đại.

3. Tương lai TTNT: Từ phép thử Turing đến quan điểm Dijkstra

Năm 1965, Herbert Simon dự đoán “trong vòng 20 năm nữa máy sẽ làm được bất kỳ việc gì người làm được”; năm 1967, Marvin Minsky cho rằng “trong vòng một thế hệ nữa, bài toán xây dựng ‘trí tuệ nhân tạo’ sẽ được xem như là giải quyết xong”. Ở thời điểm 2011 này, chúng ta biết các vị tiền bối ngành máy tính đã quá lạc quan. Vậy thì, từ những bài học gặt hái được qua chiến thắng lịch sử của Watson năm nay, chúng ta có thể nói gì về tương lai của ngành TTNT? Để thảo luận câu hỏi này, ta quay lại một chút với một câu hỏi cơ bản mà Alan Turing đặt ra năm 1950: làm thế nào để biết máy có “nghĩ” không?

Nguồn ảnh: http://xkcd.com/329/

Tư duy là một khái niệm khó nắm bắt, là thách thức quan trọng không chỉ đối với ngành khoa học máy tính mà còn thần kinh học và các ngành khoa học xã hội. Vì thế, để trả lời câu hỏi về tư duy của máy, Turing đã đề cử một phép thử mà ngày nay được gọi là phép thử Turing: cho một ban giám khảo ngồi trong một không gian tách biệt, nói chuyện với máy đồng thời với số người thật. Nếu ban giám khảo không phân biệt được ai là máy ai là người thật thì kết luận là máy có “tư duy”. Ta phải tưởng tượng mình sống ở năm 1950 để cảm nhận sự khó khăn của việc xây dựng một cái “máy” vượt qua được phép thử Turing này.

Vậy mà đến năm 1965, chương trình máy tính Eliza của Joseph Weizenbaum trường MIT đã có khả năng thuyết phục rất nhiều người là nó là người thật, dùng một cái mẹo đơn giản của các nhà tâm lý học trong hội thoại với bệnh nhân: khi nào không hiểu thì lấy một từ khóa trong câu của bệnh nhân và bảo họ giải thích thêm. Ví dụ, bệnh nhân nói “hôm nay tớ buồn quá”, máy tính trả lời: “bạn nói thêm cho tớ về nỗi buồn của bạn đi!”. Chỉ đơn giản như thế, nhưng rất nhiều người đã không tin rằng Eliza là chương trình máy tính. Nhiều người thậm chí đã “nói chuyện” nhiều giờ liền với Eliza, và khi xong thì báo cáo kết quả là “nhà điều trị tâm lý” Eliza đã có tác động tích cực đến tâm lý của họ. Hiện nay hàng năm vẫn có các kỳ thi dạng phép thử Turing cho các chương trình máy tính (Giải thưởng Loebner là một ví dụ), và nhiều chương trình đã rất cận kề với điểm vượt qua phép thử Turing. Thậm chí, gần đây có cả chương trình tự động “kết bạn” trên các mạng xã hội, hội thoại với con người kiểu Eliza. Các nhà nghiên cứu đã thử cho bọn “bot” này thâm nhập vào trung tâm của một nhóm lớn các bạn bè trong một mạng xã hội kiểu Twitter bằng cách này. Cho nên ai kết bạn linh tinh trên Facebook hay Twitter thì nên cẩn thận xem lại bạn mình có phải là … người không.

Vậy giờ đây, liệu đã có thể kết luận từ sự kiện Watson, con người đã có thể tạo ra những bộ máy thực sự có trí tuệ hay không? Noam Chomsky, một nhà ngôn ngữ học nổi tiếng, thẳng thừng tuyên bố: “Với tôi, Watson chẳng hiểu gì cả. Nó chỉ là một cái máy ủi rất to thôi”. Marvin Minsky, một trong những người sáng lập nên ngành trí tuệ nhân tạo sau Turing, cũng có thái độ tương tự: “Nếu như Watson chỉ là một dạng máy tính tìm kiếm và so trùng mẫu (pattern matching) … thì chẳng có gì ấn tượng cả. Với tôi, vẫn chưa máy tính nào có thể có cách cư xử theo lẽ thường tình như một đứa trẻ con 4, 5 tuổi”.

Thoạt nghe, những nhận xét như của Chomsky hay Minsky không phải không có cơ sở. Quả là ở chừng mực nào đó, cũng giống như Deep Blue, Watson vẫn chỉ là một máy tính làm rất tốt một việc: đó là việc tìm kiếm câu trả lời, một dạng câu trả lời chỉ thích hợp cho một cuộc chơi, cho dù là một cuộc chơi lắt léo như Jeopardy!. Watson vẫn phải dựa vào kho tri thức khổng lồ đã được tải xuống và sắp xếp vào hệ thống bộ nhớ rất “máy ủi” của mình bởi các kỹ sư bằng da bằng thịt của IBM. Nếu cái kho tri thức ấy được Watson tự thu lượm và học hỏi được thì có thể sự đánh giá của chúng ta với trí thông minh của nó sẽ khác đi chăng? Nhưng nhìn nhận công bằng hơn, Watson thực sự là bước tiến vượt bậc so với Deep Blue. Trước khi có Watson, chúng ta đã không biết chắc có thể tạo ra được máy tính có khả năng xử lý ngôn ngữ tự nhiên của con người và thắng được con người trong một cuộc chơi như Jeopardy!.

Có ai đó từng nói: hễ cứ khi máy tính đã làm được cái gì thì cái đó không được coi là thông minh nữa. Định kiến này sẽ luôn luôn đi kèm theo bất kỳ thành tựu công nghệ nào của loài người, cho dù chúng có kỳ vĩ đến đâu. Các tác giả bài này chọn cách nhìn cùng hướng với cố giáo sư Edsger Dijkstra, người thắng giải Turing năm 1972. Dijkstra từng nói: “hỏi máy tính có biết nghĩ hay không thì cũng chẳng hay ho gì hơn hỏi tàu ngầm có biết bơi không”. Quan điểm của Dijkstra cũng chính là xu hướng phát triển của khoa học và công nghệ TTNT hiện nay mà đại diện mới nhất là Watson: hướng chức năng. Khi công nghệ Q&A (hỏi đáp) của Watson có thể dùng để giúp bệnh nhân và bác sĩ chẩn đoán bệnh bằng cách tìm và trả lời các câu hỏi lâm sàng hóc búa, khi công nghệ Q&A phát triển đến mức các trung tâm giải đáp thắc mắc kỹ thuật chỉ còn toàn máy, khi công nghệ Q&A phát triển đến mức ta có thể đặt câu hỏi trực tiếp cho Google mà không cần nghĩ xem từ khóa đúng là gì … thì việc Watson có biết “nghĩ” thật hay không có lẽ không còn là câu hỏi cần thiết nữa.

Khoa học gia ngành Tâm Lý Daniel Gilbert từng nói rằng, mỗi nhà tâm lý học sẽ phải một lần trong đời viết cái câu sau:

“Con người là loài duy nhất có khả năng _________”

Cho đến gần cuối thế kỷ 20, điền “chơi cờ vua” vào khoảng trống hẳn là đa số nhân loại đồng ý. Đến nay điền “làm Toán” vào được không? Không! Hệ thống phần mềm WolframAlpha có khả năng làm Toán tốt hơn tuyệt đại đa số nhân loại: nó có thể tính tích phân bất định và xác định, tính tổng các chuỗi hình thức, và mật độ dân số Việt Nam, trong vòng tích tắc, với câu hỏi là ngôn ngữ tự nhiên.

Watson vừa mới loại bỏ thêm một việc nữa mà chỉ con người mới có thể làm được. Xu hướng chức năng theo quan điểm của Dijkstra sẽ là xu hướng thượng phong cho tương lai ngành TTNT.

Có thể đến một lúc nào đó chúng ta sẽ phải quay lại với vấn đề mà Turing đã lẩn tránh khi ông đưa ra phép thử Turing. Trí thông minh là gì? Cụ thể hơn: thế nào là trí thông minh của máy? Tương tự, thế nào là tình cảm của máy? Thế nào là lẽ thường? Còn, nếu bạn không đồng ý với quan điểm Dijkstra và muốn “hạ gục” Watson thì chỉ cần hỏi: “Này, Watson, tại sao vợ tớ giận tớ?

Chủ đề : Ảnh hưởng của CNTT, Trí tuệ nhân tạo and tagged , , , , . Bookmark the permalink. Trackbacks are closed, but you can post a comment.

58 Comments

  1. Long Lê
    Posted 19/04/2011 at 10:39 am | Permalink

    Bài viết hay! Em chỉ có một góp ý thôi, đó là cụm “huyền thoại đương đại” nên được thay bằng “huyền thoại hiện thời.” 🙂

    • Posted 19/04/2011 at 10:57 am | Permalink

      Cảm ơn Long! Sửa lại thành huyền thoại đương … thời nhé 🙂

      • Long Lê
        Posted 19/04/2011 at 12:18 pm | Permalink

        Để cho giống “Người đương thời” của VTV3 phải không anh Hưng ? 🙂
        Em nhớ là chữ “đương thời,” “đương đại”… là để chỉ cái thời hồi đó, chứ không phải là thời bây giờ. Người ta đánh đồng chữ “đương” với chữ “đang” trong một thời gian dài, nên bây giờ mới xài hơi lẫn lộn.

        • Posted 19/04/2011 at 2:10 pm | Permalink

          Hi Long, đã sửa thành “hiện nay”. Thanks again!

  2. HàThuý Anh
    Posted 19/04/2011 at 11:29 am | Permalink

    Đọc đoạn này “Con người là loài duy nhất có khả năng _________”
    lại nhớ đến Thầy giáo cũ, thầy Vương Cộng, dạy tôi hồi 1993 ở ĐHBK Hanoi. Khi đó cả thầy và bọn tôi đều không biết machine learning, trí tuệ nhân tạo là gì, nhưng thầy Vương Cộng đã bảo là “khác biệt duy nhất của con người so với động vật và máy móc là có tôn giáo”
    Xin lỗi Admin nếu câu nhắc lại này không được đặt đúng chỗ, đúng lúc.

    • Posted 19/04/2011 at 5:58 pm | Permalink

      Có chi đâu anh Hà. “Tôn giáo” là một chọn lựa tốt cho khoảng trống.

  3. Dũng
    Posted 19/04/2011 at 5:34 pm | Permalink

    Cám ơn anh Hưng, bài viết rất hay và hấp dẫn. Có một câu hỏi mà em không biết Watson có trả lời được không: Số nguyên lớn nhất từ 1 đến 20.5 ?

    • Posted 19/04/2011 at 5:50 pm | Permalink

      @Dũng. Tôi không biết Watson có trả lời được câu đó không. Chắc là không, nhưng với công nghệ hiện có thì làm cho Watson trả lời được mấy câu kiểu Toán sơ cấp không khó.

      • Dũng
        Posted 19/04/2011 at 6:48 pm | Permalink

        Em cũng nghĩ là Watson không trả lời được. Ý em chỉ là muốn bổ sung một ý trong bài viết về sự tương phản giữa suy luận logic và suy luận dựa trên xác suất. Một câu hỏi như vậy hoàn toàn dựa trên suy luận logic, điều mà một hệ thống dựa hoàn toàn trên xác suất như Watson có thể không làm được. Đồng ý là việc hiện thực một hệ thống trả lời các câu Toán sơ cấp có thể không khó, nhưng vấn đề là người thiết kế phải nghĩ ra mọi dạng câu hỏi có thể và hiện thực giải thuật cho từng dạng câu hỏi đó. Trong khi đó, một hệ thống xác suất chỉ cần một framework tốt trước khi bổ sung thật nhiều dữ liệu. Tuy vậy dù chứa thật nhiều dữ liệu, hệ thống xác suất vẫn có thể ko trả lời được những câu hỏi logic rất bình thường.

        • Nguyễn Xuân Long
          Posted 19/04/2011 at 7:28 pm | Permalink

          Hệ thống logic có thể coi chỉ là một hệ thống xác suất đặc biệt (với xác suất 0 hoặc 1). Hệ thống XS do đó giàu có hơn vì nó còn nói về một hàm phân bố cho một không gian của giải pháp. SAT hay CSP có thể biểu diễn dưới dạng một probablistic graphical model.

          Trên thực tế thì những vấn đề như bạn Dũng đề cập đã là quá dễ so với máy tính từ vài thập niên rồi, và chúng có được kết hợp với hệ thống suy diễn bằng XSTK nếu muốn. Nếu con người muốn đọ với Watson cả trong đija hạt này thì thua từ vòng gửi xe.

          Không phải đơn giản cứ có nhiều dữ liệu là hệ thống xác suất sẽ làm tốt đâu, vì trong đó một vấn đề cốt lõi của chuyện học máy vẫn là một bài toán search, giống như search trong logic vậy thôi.

        • Dũng
          Posted 19/04/2011 at 10:37 pm | Permalink

          Cám ơn anh Long. Có thể kiến thức của em còn có chỗ thiếu sót, nhưng em vẫn chưa hình dung được làm thế nào để thiết kế một hệ thống máy tính trả lời tất cả những câu hỏi sau mà ko phải viết giải thuật cho từng dạng câu hỏi:
          – Tìm số lớn nhất / nhỏ nhất / trung vị (median) của một khoảng.
          – Tìm số mà khoảng cách từ nó đến đầu khoảng bằng 2/3 khoảng cách từ nó đến cuối khoảng.
          – Tìm số chia một khoảng thành 2 đoạn mà trung vị của khoảng đầu bằng một nửa trung vị của đoạn sau.
          Ít nhất máy tính phải hiểu được các khái niệm theo một dạng biểu diễn nào đó. Nếu ai đó định nghĩa ra một khái niệm mới, làm thế nào máy tính hiểu được nó mà không cần người lập trình can thiệp? Với XSTK, máy tính sẽ học một khái niệm thông qua các khái niệm khác đã biết đi cùng với nó, nhưng liệu như vậy có thể cho máy tính biết chính xác cách tính khái niệm đó không?

        • Nguyễn Xuân Long
          Posted 19/04/2011 at 11:15 pm | Permalink

          Chào Dũng. Những câu hỏi bạn đặt ra rất xác đáng. Làm sao để học được khái niệm và biểu diễn vẫn mãi là holy grail của TTNT. Nhưng để giải quyết được vấn đề học khái niệm này thì logic không giúp gì — vẫn phải cần nền tảng của XSTK. (Còn nếu phải dùng một biểu diễn có sẵn thì không có gì để nói. Dùng hệ thống XSTK không có nghĩa là không biết tính theo boolean algebra!).

          Lý thuyết TK (và learning theory) chính là lĩnh vực nghiên cứu trong hoàn cảnh nào thì có thể khẳng định được là máy tính sẽ học được “chính xác” các khái niệm. Mời bạn đọc lại loạt bài về learning theory rất hay của bác Hưng trong blog nàỵ.

          http://www.procul.org/blog/2008/07/09/h%E1%BB%8Dc-may-t%E1%BB%AB-goc-nhin-c%E1%BB%A7a-ly-thuy%E1%BA%BFt-tinh-toan-1/

          Cũng nên hiểu là không ai học từ số 0. Vẫn phải có sự hỗ trợ nhất định từ trước, hoặc từ bên ngoài. Đó chính là các khái niệm prior information và regularization trong thống kê.

        • Nguyễn Xuân Long
          Posted 19/04/2011 at 11:21 pm | Permalink

          Nếu bạn đánh thử vào google

          how many inches in a foot

          hoặc 1+1/2 =

          thì sẽ được câu trả lời xác đáng.

          Kỹ thuật đáng nói ở đây chính là cách xử lý ngôn ngữ tự nhiên, bây giờ đều dùng các phương pháp thống kê, để hiểu được câu hỏi và chuyển sang một cách biểu diễn thích hợp.

      • Dũng
        Posted 20/04/2011 at 9:16 am | Permalink

        Cám ơn anh Long vì câu trả lời nhiều thông tin hữu ích. Với Google, nếu em đánh vào “100 USD to VND” thì nó tự động hiểu và đổi được. Nhưng nếu em đánh vào “USD 100 to VND” thì nó không hiểu. Liệu có phải Google hard code cho từng dạng pattern, hay hệ thống suy diễn của nó thiếu sót chỗ nào đó?

        • Posted 20/04/2011 at 10:17 am | Permalink

          Cũng giống như khi bạn nhìn thấy người ta viết 1+1. Tại sao bạn biết được đây là phép cộng tính toán, mà lại không phải là một sản phẩm trừu tượng của một họa sĩ? Và, cứ cho là phép toán đi, chưa chắc chúng ta đã “hiểu” 1+1 = 2 hay đó chỉ là một quy ước nào đó có một ý nghĩa nhất định nào đó thôi. Jon von Neumann từng nói: chúng ta không thực sự hiểu toán, chỉ là trở nên quen thuộc với nó mà thôi. Cho nên phạm trù nào đó, sự hiểu và sự học (làm quen) không xa với nhau như ta nghĩ.

          Quay về Google, theo tôi hiểu thì Google phải lọc các search query qua một hệ thống nhận dạng. Sau khi đã classify được pattern của câu hỏi rồi, ví dụ như đây là query tính số học đơn giản hay tính một tích phân chẳng hạn, thì nó sẽ gọi một chương trình kiểu như mathematica của Wolfram.

          Có thể thấy là những gì Google đã làm (hay Watson), là bước tiến đáng kể so với 10 năm trước đây.

        • Phan
          Posted 20/04/2011 at 10:44 am | Permalink

          Hi anh Long & Dũng,

          Câu hỏi của Dũng cũng hay, tham vọng của TTNT vẫn là đến một lúc nào đó có thể tự học hiểu khái niệm mới và biểu diễn được chúng.
          Một ví dụ gần hơn với câu hỏi của Dũng chính là computational knowledge engine (http://www.wolframalpha.com/) của Wolfram. Tất nhiên cái WolframAlpha này vẫn còn xa lắm để đạt đến được mức yêu cầu của Dũng.

          Theo em nghĩ là để làm được điều đó (hiểu và biểu diễn được khái niệm mới) thì chúng ta cần một cái gì đó xa hơn là sự kết hợp đơn thuần giữa natural language understanding + statistical learning + logical inference.

          Về sự kết hợp giữa logic + statistical graphical models, bác Pedro Domingos có giới thiệu mô hình Markov Logic Networks. Anh Long thấy mô hình này thế nào, có triển vọng không? Em lâu rồi không theo dõi mấy cái này.

          Thanks,

  4. Posted 20/04/2011 at 12:30 pm | Permalink

    MLN với tôi giống như cách nghe nhạc bằng cách bạn lấy cái iphone (có trữ một thư viện nhạc của mình) vào một cái amplifier hoặc booster ở trong living room để nghe nhạc. Nghĩa là một giải pháp khả dĩ trong một số tình huống cụ thể, nhưng không phải là một giải pháp công nghệ mới mẻ.

    • RongChoi
      Posted 20/04/2011 at 3:25 pm | Permalink

      Anh Hưng anh Long có thể giới thiệu sơ qua các dấu mốc trong quá trình phát triển TTNT từ 20,30 năm qua được không? những ý tưởng, giải pháp mới mẻ tạo nên các bước đột phá chẳng hạn.
      Giả sử cách đây 10 năm nếu ta có lực lượng máy đủ mạnh như bây giờ thì có làm được Watson không? Nếu không thể thì tức là có bước đột phá về “cách học” hiện ta có so với 10 năm trước trong trái tim Watson, anh mô tả đôi chút về nó? Tò mò quá 🙂

  5. Posted 20/04/2011 at 5:36 pm | Permalink

    RC hỏi khó thế. Thử ngó qua chương 22, 23, 24, 25 của quyển sách này
    , về các vấn để xử lý ngôn ngữ, vision và robotics. (Nguyên đâu nhỉ, rỗi làm một bài điểm qua về NLP đi).

    http://aima.cs.berkeley.edu/contents.html

    Quyển này viết nông thôi, nhưng third edition (2009) có lẽ là up-to-date (tôi cũng chưa đọc edition này).

    Một trong những nền tảng của mấy thứ này là các giải thuật học máy, mà như project lead của Watson nói đâu đó, lots of algorithms and statistics.

    • RongChoi
      Posted 20/04/2011 at 5:57 pm | Permalink

      Ồ, chỉ là RongChoi cho bài anh Hưng, anh Long vào máy Watson và nó đưa ra câu hỏi đó đó 😀

    • Posted 21/04/2011 at 1:40 pm | Permalink

      Em sẽ cố gắng bác Long.

      Năm ngoái em ở IBM TJ Watson, chiều thứ 6 nào cũng được xem Watson đấu tập trong hội trường. Đội Watson luyện model qua hơn 100 trận đấu tập, xem vui ra phết. Watson thực sự là rất “trâu” và là được thiết kế để oánh thắng trong Jeopardy. Trong 2 người chơi với Watson ở TV thì Ken là người tập huấn với Watson thường xuyên. Ken như kiểu tuning set, còn Brad là unseen set.

  6. Vạn Duy Thanh Long
    Posted 20/04/2011 at 9:15 pm | Permalink

    Đọc bài này xong em bổng nãy ra ý định mô phỏng được một hệ máy biết làm thơ. Đại loại kiểu như nhập vào một chủ đề, một ngữ cảnh cần thiết (gọi là “tức cảnh”), loại thơ (lục bát, thất ngôn …) nó sẽ kết xuất 1 bài thơ (gọi là “làm thơ”).

    • Phuoc
      Posted 21/04/2011 at 1:39 am | Permalink

      Trước đây Tinh Vân có cung cấp phần mềm “Em tập làm thơ”, đây là một vài đoạn thơ mẫu:
      Ngồi buồn đốt một đống rơm
      Khói bay vào mũi chẳng thơm tí nào
      Khói bay thẳng đến Nam Tào
      Nam Tào bèn hỏi thằng nào đốt rơm?
      Bạn không thích thơ lục bát mà chọn thể loại Đường thi đượm màu hoài cổ? Hay ngang tàng khí phách như nữ sĩ họ Hồ? Vậy ai bảo đây không phải là khẩu khí của nàng Xuân Hương?

      Phúc đức thân em đã dãi dầu
      Bể ái thân hình nặng càng mau
      Hỏi thăm mấy thế ngồi quân tử
      Phong nguyệt sao mày chưa thôi chau?

      http://www.vnntu.com/forum/viewtopic.php?f=11&t=2502

      • Vạn Duy Thanh Long
        Posted 21/04/2011 at 8:44 am | Permalink

        Hình như không còn cung cấp nữa thì phải, link tới ứng dụng của Tinh Vân lỗi rồi

  7. Lê Hồng Phương
    Posted 21/04/2011 at 5:34 am | Permalink

    Cảm ơn anh Hưng và anh Long. Bài viết của các anh rất hay.

    Theo em, thuật ngữ “machine learning” nên được dịch là “máy học”, thay vì “học máy”. Nếu nói học máy thì có lẽ phải nói rõ là “học bằng máy”, nhưng ngay cả như thế cũng có vẻ không rõ nghĩa lắm.

    “Máy học” thì rõ là biểu hiện ngụ ý là cho máy đi học, giống quá trình như người đi học. 🙂 Gọi là “máy học” thì những người mặc dù không có chuyên môn cũng sẽ hiểu ngay là mục tiêu của các nhà khoa học trong ngành này là làm cho máy biết học và giải quyết vấn đề.

    Em nghĩ việc các nhà khoa học dịch thuật ngữ từ tiếng Anh ra các tiếng nước khác cũng quan trọng, nhất là để phổ biến kiến thức trong các bài viết hướng tới cộng đồng. Theo em biết, cộng đồng Machine Learning ở Pháp còn làm cuộc trưng cầu ý kiến dịch “Machine Learning” ra tiếng Pháp như thế nào là tốt nhất. Có nhiều đề xuất, nhưng có hai thuật ngữ được lựa chọn là “apprentissage artificiel” (học nhân tạo) và “apprentissage automatique” (học tự động). Họ cũng không dùng tự “học máy”.

    Về các cột mốc phát triển của ngành máy học từ năm 1950 tới nay mà bạn RongChoi hỏi ở trên, mình thấy câu trả lời của GS Antoine Cornuéjols và GS Laurent Miclet đăng trên bản tin của Hội Những người Giảng dạy và Nghiên cứu Tin học Pháp (CPECIF) số tháng 12/2010 chứa nhiều thông tin hữu ích. Mục hỏi đáp ở trang 37 của tài liệu này (bằng tiếng Pháp):

    http://www.specif.org/bulletins/specif064.pdf

    • Posted 21/04/2011 at 12:16 pm | Permalink

      @Phương,

      Cảm ơn! Đúng là “máy học” thì đỡ gây hiểu lầm hơn “học máy”, mặc dù nó có thê gây hiểu lầm theo hướng khác. “Máy học” người ta có thể hiểu như trong “Số học”, “hình học”, “Hóa học”.

      • Lê Hồng Phương
        Posted 22/04/2011 at 3:57 am | Permalink

        Hi anh Hưng,

        Em thì lại nghĩ đơn giản “học” ở trong “máy học” như một động từ thôi, giống kiểu rất nhiều máy mà người Việt mình quen dùng ấy: máy kéo, máy gặt, máy khâu… 🙂

        Còn nếu hiểu “máy học” giống như “số học”, “hình học” như anh nói thì cũng bị nhầm sang ngành “nghiên cứu chế tạo máy” mất nhỉ! Tiếng Việt quả thật rất phong phú, “áo ấm” thì cũng đồng nghĩa với “áo rét” được cơ mà. 😛

        • Posted 22/04/2011 at 9:28 am | Permalink

          Hi Phương, đúng là khó dịch. Thật ra nếu mình hiểu học như một động từ thì cũng chưa chính xác lắm. “Máy kéo” là nói về một cái máy có khả năng kéo; nhưng “machine learning” là nói về sự học của máy chứ không phải nói về một cái máy có khả năng học. Nếu nói cái máy có khả năng học thì tiếng Anh gọi là learning machine.

        • Posted 22/04/2011 at 1:35 pm | Permalink

          Dịch kiểu Pháp thành “học nhân tạo” –> học giả (vờ) thì e cũng không ổn lắm nhỉ.

          Hôm nọ đọc bài phỏng vấn của Chomsky có đoạn nói về một bác làm về sinh học muốn thay trí tuệ nhân tạo (artificial intelligence) bằng natural stupidity, hóm thật.

        • RongChoi
          Posted 22/04/2011 at 4:05 pm | Permalink

          Lấy ứng cử viên thứ 2 của các bạn Pháp là “Học tự động”? Ko cần chữ máy vì hiển nhiên chỉ có máy mới học tự động được 🙂 nó ẩn chứa luôn một phép suy diễn rất AI 😉

  8. Posted 21/04/2011 at 5:47 am | Permalink

    Xin cảm ơn bác Hưng và bác Long về 1 bài viết hay, và rất sáng sủa, dễ hiểu với 1 người đọc phổ thông như tôi.

    Câu kết “Này Watson…giận tớ.” thật dí dỏm! 🙂 Hai bác nghĩ thế nào về triển vọng của từng máy tính hay từng robot 1 ngày nào đó có thể có cảm xúc riêng ạ?

    • Posted 21/04/2011 at 10:49 am | Permalink

      Xin mạn phép trả lời bác Kan, câu hỏi này rất hay nhưng theo tôi thì chưa thể có điều đó trong tương lai gần. Máy tính hiện nay vẫn thực hiện các thao tác được coi là thông minh dựa trên các thuật toán kiểu thống kê với những bộ dữ liệu lớn. Trong khi đó cảm xúc là thứ rất “tinh tế và xa xỉ” ngay cả với con người, bản chất tâm sinh lý và cơ chế hoạt động của nó trong não bộ là một quá trình hết sức phức tạp và hiện vẫn còn là một bí ẩn đối với giới nghiên cứu.

      • Posted 23/04/2011 at 2:07 pm | Permalink

        Thưa bác SpringerCV,

        Xin cảm ơn bác đã trả lời. Tôi cũng xin mạn phép bàn thêm vài ý.

        1. Rõ ràng là như bác Hưng đã viết, con người hoàn toàn ko có cửa đọ với máy trong bất kì chương trình nào tuân theo logic hình thức. Người ta ngạc nhiên khi Kasparov thua Deep Blue chắc cũng chỉ vì công nghệ tiến nhanh quá! Nếu tôi nhớ ko lầm thì Bill Gates từng bảo bộ nhớ máy tính ko cần quá mấy chục Kb!!

        2. Máy tính xây dựng trên nền tảng XSTK đương nhiên phải ưu việt hơn logic hình thức nhiều lần. Nếu phụ nữ mà chỉ được chia thành 2 loại “đẹp” – “xấu” thì thế giới này sẽ chán ngắt so với 1 thế giới mà ta có phụ nữ “lộng lẫy”, “có duyên”, “vô hồn”, “thanh thoát”, “bốc lửa”, “ma chê quỷ hờn” v.v. 🙂

        3. Tôi nghĩ rằng 1 trở ngại đáng kể khiến việc “dạy” máy biết được cảm xúc là do cảm xúc và những thứ liên quan (như xấu – đẹp chẳng hạn) thì ko thể có tiêu chuẩn cố định. Tôi hình dung, Watson có thể dễ dàng học cách phân biệt thời tiết cực nóng – nóng – ấm – âm ấm – mát – lạnh – lạnh ngắt v.v. dựa trên nhiệt độ và áp dụng XSTK dễ dàng. Nhưng còn những khái niệm kiểu xấu – đẹp, thiện – ác, dân chủ – độc tài (cho nó thời thượng! 🙂 ) thì có lẽ ông Watson người nếu còn sống cũng mệt nữa là Watson máy!

        Vậy nên, nếu bác Hưng định hỏi máy Watson câu “Này Watson, tại sao vợ tớ giận tớ?” mà nó trả lời “Ai là Kim Lân?” thì bác đừng cười nó nhe bác, hehe!

        • Dũng
          Posted 24/04/2011 at 1:11 am | Permalink

          Thực ra có một môn cờ mà máy tính vẫn còn thua rất xa con người. Chương trình máy tính mạnh nhất hiện nay chỉ bằng một người chơi nghiệp dư trung bình. Đó là cờ vây, mặc dù luật chơi của cờ vây cực kỳ đơn giản. AI có lẽ vẫn cần một bước tiến rất dài để đánh thắng con người trong lĩnh vực này.

        • Posted 24/04/2011 at 5:00 am | Permalink

          Cái mà bác Kan nhắc đến trong phần 3 là việc học khái niệm, chuyện này thì bác NXL đã nói từ comment trước rồi. Đây luôn là vấn đề khó nhưng không phải không thể trong thời điểm hiện tại. AI hiện đã có những khả năng đó, mặc dù trong nhiều tình huống thì độ chính xác chưa cao và đòi hỏi bộ dữ liệu rất lớn nhưng đấy chỉ là khó khăn có tính… cơ học thôi. Còn cảm xúc là một tập các khái niệm tinh xảo và phức tạp hơn rất nhiều. Chúng ta hoàn toàn có thể đồng ý trên một vài quan niệm chung nào đó về cái đẹp, thiện – ác. dân chủ,… vì những thứ đó dù sao cũng đã có rất nhiều cách định nghĩa rõ ràng. Trong khi đó cảm giúc là thứ chưa thể hiểu được ngay bởi chính chủ thể tạo ra nó là con người. Cái kiểu “tôi buồn không hiểu vì sao tôi buồn” thì mới đúng là … bó tay. Đến cụ của Watson đang sống cũng phải thua thôi.

        • Posted 27/04/2011 at 2:36 pm | Permalink

          @SpringerCV: Đã là máy thì các cơ chế đều có tính … cơ học rồi. Những cái chúng ta chưa hiểu lắm, có vẻ phức tạp thì chúng ta cho nó vào phạm trù khác, nhưng theo tôi điều này có tính tạm thời.

          Cho nên, tôi cho là khó khăn mang tính cơ học như bạn nói, chính là khó khăn chính, chứ không phải khó khăn nào khác.

        • Posted 27/04/2011 at 5:00 pm | Permalink

          @NXL: Em muốn giải thích với bác Kan về chuyện phân biệt 2 vấn đề kỹ thuật và nhận thức thôi ạ. Những khó khăn về kỹ thuật thì ít nhiều ta cũng cảm được và có thể tìm hướng giải quyết. Còn những thứ thuộc về nhận thức thì khác, ta không thể chạm tới nó ngay mà còn phải phụ thuộc vào những nghiên cứu khác nữa. Ở đây, ta còn cần kết quả của bio, neuro science, psychology,… hay bất cứ thứ ngành nào khác nữa thế để hiểu rõ thế nào là cảm xúc. Những thứ này thì còn khá xa vời nên em nghĩ đấy chính là lí do khiến cho chuyện máy tính có cảm xúc mà bác Kan hỏi khó có thể trở thành hiện thực trong tương lai gần.

        • Do Cong Thanh
          Posted 03/05/2011 at 8:55 am | Permalink

          Trong một bài phỏng vấn đăng trên Nature, Roger Penrose có nói “computer will not achieve any conscious understanding” vì “understanding is not a computational process”.
          Đây là link đến bài báo http://www.jaschahoffman.com/NaturePenrose.pdf

        • Posted 04/05/2011 at 7:54 am | Permalink

          Cám ơn cá DCT nhưng bài báo trên có lẽ không liên quan tới nội dung mà mọi người vừa comment. Mọi người nói về khả năng học và cảm xúc của máy chứ không nói đến conscious understanding. Tôi không thấy sự liên quan giữa các khái niệm này. Còn trong bài viết thì ông ta còn dự đoán:

          “Something else is going on. I have reason to believe it may involve the limits of quantum mechanics. Microtubules [tiny structures in cells] are the best candidate in the brain for where this might happen, as they are so small, but quantum mechanics would have to work on a huge scale to operate there.”

          Tức là hiện không có conscious understanding nhưng sẽ có thể có những cái tương tự. Đến đây thì ta có thể trở về với câu nói của Dijstra đã được trích dẫn trong bài này: “hỏi máy tính có biết nghĩ hay không thì cũng chẳng hay ho gì hơn hỏi tàu ngầm có biết bơi không”.

        • Do Cong Thanh
          Posted 04/05/2011 at 3:39 pm | Permalink

          Nếu có thể xếp cảm xúc vào dạng nhận thức (consciousness) của con người thì theo Penrose, máy tính sẽ không thể có cảm xúc (“computer will not achieve ANY conscious understanding”). Tuy nhiên, tôi cũng không rõ (self-)consciousness và (self-)awareness như mọi người đang bàn ở đây có thể được hiểu giống nhau hay không nữa? Có thể consciousness là nhận thức ở mức độ trừu tượng cao hơn awareness chăng?
          Có một phát hiện mới về self-consciousness của các tác giả cùng trường về self-consciousness mà tôi mới thấy. Tôi chưa đọc kỹ lắm nhưng nhìn qua thấy có vẻ thú vị, gửi link vào đây nếu mọi người quan tâm và muốn đọc, có lẽ hơi xa với chủ đề của bài viết trên blog.
          http://www.eurekalert.org/pub_releases/2011-04/cp-nrb042511.php

        • Posted 04/05/2011 at 7:59 pm | Permalink

          Tôi có đọc 2 quyển sách của Penrose, cả chục năm trước rồi. Lúc đầu thấy rất thú vị. Sau đó thấy nhập nhằng. Nói chung chỉ có speculation mà không có bằng chứng KH thật sự. Xem thêm bài giảng của Scott Aaronson về đề tài này. Ở thời điểm này, self-awareness/self-consciousness là một đề tài cực kỳ sâu sắc mà tôi nghĩ là chưa thể khẳng định bất kỳ chiều nào.

    • Posted 21/04/2011 at 12:19 pm | Permalink

      Bác Kan, tôi đồng ý với tóm tắt của bác SpringerCV.

      • Posted 23/04/2011 at 2:19 pm | Permalink

        Thưa bác Hưng,

        Có 1 vấn đề của AI mà tôi rất tò mò là, máy tính có thể tự suy nghĩ về chính nó không? Chẳng hạn, 1 máy tính AI nhãn Lenovo có cảm thấy tự ti vì thua kém mấy “thằng” Dell hay HP? Hay nó có thở dài đau khổ vì ông cha IBM đã đem bán nó cho nước lạ? 🙂

        Tôi thì tôi ko lo 1 ngày kia máy sẽ biến thành người mà chỉ sợ ngược lại thôi bác ạ! Như trên TV, thỉnh thoảng lại thấy xuất hiện vài cái “máy người”! 🙂

        • Posted 23/04/2011 at 8:35 pm | Permalink

          Self-awareness rất khó bác ạ. Không ai biết làm thế nào. Hôm nào bác đi nhậu, nhìn quanh xem bọn họ có self-aware không?

        • Posted 27/04/2011 at 2:37 pm | Permalink

          Hà hà. Thú thực, tôi cũng không biết có mấy người trong chúng ta thức sự là có cái self-awareness, kể cả khi tôi ngồi viết dòng này (và không có nhậu nhé).

        • chuoi
          Posted 30/05/2011 at 3:18 am | Permalink

          @NQH: Nên hiểu thế nào là Self-awareness nhỉ?
          Giả sử tối qua bác đi nhậu, có thằng bạn đểu đổ rượu vào bia của bác trong khi bác không nhìn thấy. Tuy nhiên khi bác uống thì phát hiện ra là bia có độ cồn hơi bị cao, vậy tức là có thằng bạn đểu, bác tức vì nó chơi mình, và vì thế bác đứng dậy đi về luôn. Theo bác, chuỗi hành động như vậy có thể được gọi là self-awareness không?

    • Posted 26/04/2011 at 5:50 am | Permalink

      @ bác Dũng: cảm ơn bác đã cho tôi biết thêm. Qua wiki, tôi thấy vấn đề có tính chất kĩ thuật 1 chút, vì bàn cờ vây 19×19 thật khác xa với bàn cờ vua 8×8. Và do đó tôi lại càng thấy thú vị và ngạc nhiên về hoạt động của bộ não chúng ta, nhớ thì rất ít nhưng biến hóa thì khôn cùng, thật hay!

      @ bác SpringerCV: vâng, tôi cũng nghĩ như bác, những khó khăn của việc học khái niệm dường như phần nhiều có tính cơ học. Ví như máy Watson được thừa hưởng 1 tri thức đồ sộ về nghiên cứu ngôn ngữ, nhất là tiếng Anh. Mà ngôn ngữ học thì cũng phụ thuộc phần lớn vào khái niệm, mặc dù đôi khi tôi thấy chúng rất rách việc! 🙂

      • Posted 27/04/2011 at 2:43 pm | Permalink

        @bác Kan: Theo tôi thì thực ra thì ngược lại. Chúng ta nhớ rất giỏi. Cái này máy tính làm chưa được tốt lắm, nó chỉ nhớ cứng nhắc thôi. Chúng ta suy diễn logic rất tồi. Cái này máy tính làm rất tốt.

        • Posted 28/04/2011 at 2:35 am | Permalink

          Anh Long, ở đoạn “Chúng ta nhớ rất giỏi”, ý anh là trí nhớ liên tưởng? Còn nếu nhớ “cơ học” thì khả năng nhớ của máy mạnh hơn nhiều chứ? 🙂 Mà nhớ liên tưởng thì dường như có liên quan đến suy diễn?

        • Posted 28/04/2011 at 5:56 pm | Permalink

          Vâng, ý tôi nói là nhớ “liên tưởng” đấy. Nhớ liên tưởng cũng liên quan đến suy diễn, và suy diễn thì cũng liên quan đến nhớ cơ học. Mọi thứ của Watson đều là cơ học cả.

  9. RongChoi
    Posted 21/04/2011 at 6:09 am | Permalink

    Merci bạn Lê Hồng Phương.
    Mình chép lại đây để tiện theo dõi phần trả lời câu hỏi về các dấu mốc trong ngành “học nhân tạo”(nếu dịch từ “Apprentissage Artificielle”)

    Interview d’Antoine Cornuéjols (professeur à AgroParisTech) et Laurent Miclet (professeur à l’ENSSAT)

    SPECIF – Quelles sont les grandes étapes de l’histoire de la discipline ?

    Les auteurs – Si l’on omet la préhistoire, c’est-à-dire les travaux de Fisher en statistiques inférentielles et les premières réflexions sur l’Intelligence Artificielle menées par Turing par exemple, chaque décennie a ses tendances.

    Pendant les années 50, les pionniers cherchaient à programmer des machines qui mimaient le comportement des humains, et qui intégraient souvent des fonctions d’apprentissage. Il est étonnant, lorsqu’on relit les articles de l’époque, de constater que de nombreuses questions très contemporaines en Apprentissage ont été soulevées dès cette période.

    Les années 60 ont été marquées par les travaux sur les réseaux de neurones à une couche (perceptron), et les outils conceptuels sur la reconnaissance des formes. Mais en 1969, un livre de Minsky et Papert établit les limites du perceptron, et les recherches sur les réseaux de neurones s’arrêtent du jour au lendemain, pour près de 15 ans.

    Les années 70 sont la grande période de l’IA symbolique et des systèmes experts. Mais leur complexité, la difficulté de les étudier de façon formelle, et le fait que le développement d’un tel système dépasse souvent la durée d’une thèse (qu’on peut considérer comme le quantum en matière de Recherche) montre les limites de l’approche. Du côté de la reconnaissance des formes, ce sont les méthodes statistiques qui règnent, influencées par le livre de Duda et Hart paru en 1973, et les méthodes dites structurelles, qui se développent pendant cette période (voir par exemple les livres de K. S. Fu).

    Les années 80 sont en rupture complète avec les précédentes. D’une part, le perceptron multicouche apparaît en 1985 et relance toutes les recherches sur les réseaux de neurones ; sur le plan théorique, cette approche repose sur des mathématiques du continu (recherche d’une solution dans un espace de fonctions) et permet d’étudier l’Apprentissage de façon analytique. Par ailleurs, les premiers travaux de Vapnik, décrivant des conditions suffisantes pour qu’une fonction puisse être apprise à partir de données aléatoires paraissent en 1982. La rupture fut suffisamment grande pour que l’importance de ces travaux n’apparaisse pas immédiatement aux praticiens de l’Apprentissage ; c’est à cette période qu’ils s’intéressèrent aux arbres de décisions, aux algorithmes génétiques, à l’induction de programme logique.

    C’est au début des années 90 que l’approche de Vapnik et des statisticiens s’imposa définitivement : le cadre qu’ils proposaient répondait à de nombreuses questions que se posaient les praticiens. De plus, l’invention des Séparateurs à Vaste Marge (SVM), qui découle directement des travaux de Vapnik, et le grand nombre de problèmes réels qu’ils permirent de résoudre avec succès, fut un argument très convaincant.

    Enfin, dans les années 2000, c’est le développement de l’économie numérique qui a conduit à un nombre croissant de travaux et de recherche en Apprentissage Artificiel. Quelle grande université américaine n’a pas d’équipe en Apprentissage aujourd’hui ? Ce n’est pas un hasard si les revues phares en Apprentissage comme Machine Learning ou Journal of Machine Learning Research ont des impact factor souvent forts.

  10. Lê Minh Duy
    Posted 23/04/2011 at 2:12 am | Permalink

    Xin cám ơn tác giả một bài viết tuyệt vời!

  11. fRzzy
    Posted 27/04/2011 at 3:33 am | Permalink

    Nghe nói đầu tháng 5 này Watson sẽ đến VN.

  12. ngoclan
    Posted 04/05/2011 at 12:23 pm | Permalink

    “Con người là loài duy nhất có khả năng _________”
    Theo em ta có thể điền “đặt câu hỏi về những điều chưa biết” vào chỗ trống

  13. HongDiep
    Posted 17/04/2012 at 3:43 am | Permalink

    bài này hay quá, mở ra một chân trời và hi vọng mới cho trí tuê nhân tạo

  14. Le Trieu
    Posted 19/06/2012 at 12:56 pm | Permalink

    Theo em hiện nay máy tính không biết làm gì khi bị mất điện 😀

  15. Posted 06/01/2013 at 11:17 pm | Permalink

    Trí tuệ nhân tạo tựa như khỉ nói tiếng người và thực tế khỉ dần dần đã tiến hóa thành người. Tương lai chưa nói trước điều gì nhưng qua những thành tựu mà hiện nay con người đã đạt được thì chắc chắn trí tuệ nhân tạo sẽ còn có những ấn tượng khác nữa trong những năm sắp tới. Nếu bạn chưa chat với EccEliza thì bạn chưa biết sự tài tình của một chương trình trên dos chỉ vài trăm kilobytes. Nếu giỏi tiếng anh thì bạn sẽ thấy trí tuệ nhân tạo đã đi một quảng đường xa như thế nào! Tôi tin về ngày mai, biết đâu đã có người yêu phải một cô chatbot trên yahoo hay facebook. Và điều băn khoăn liệu máy tính với trí thông minh tuyệt vời thì “Máy” có yêu một cô gái hay một chàng trai khi “Máy” có đầy đủ thông tin về người ấy?

  16. Hoang Vuong
    Posted 17/10/2013 at 4:41 am | Permalink

    Cảm ơn các tác giả, bài viết quá hay.

Post a Comment

Your email is never published nor shared. Required fields are marked *

You may use these HTML tags and attributes <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*
*