Sơ lược về trí tuệ nhân tạo và học máy

Học sâu dựa trên mạng nơ-ron nhân tạo (Phần I)

 “Trí tuệ nhân tạo là điện mới.”

― Andrew Ng

Giới thiệu | Phần II | Phần III

Trí tuệ nhân tạo là gì?

Cho đến nay, có nhiều định nghĩa khác nhau về trí tuệ nhân tạo (Artificial Intelligence), sau đây là một số định nghĩa, trong đó định nghĩa thứ ba của giáo sư Nils J. Nilsson được sử dụng trong dự án “100 năm nghiên cứu Trí tuệ nhân tạo”[1] của Đại học Stanford.

Theo cố giáo sư John MacCarthy, người khai sinh ra thuật ngữ trí tuệ nhân tạo: Trí tuệ nhân tạo là khoa học và công nghệ tạo ra máy thông minh (Machine Intelligent), đặc biệt là các chương trình máy tính thông minh [2].

Theo Wikipedia, trí tuệ nhân tạo là trí tuệ được thể hiện bởi máy móc, ngược với trí tuệ tự nhiên (Natural Intelligence) được bộc lộ bởi con người và động vật [3].

Theo giáo sư Nils J. Nilsson, trí tuệ nhân tạo là hoạt động dành cho việc tạo ra máy thông minh và trí thông minh (Intelligence) là phẩm chất giúp một thực thể thực hiện chức năng một cách phù hợp và với khả năng dự đoán trong môi trường của nó  [4].

Trí tuệ nhân tạo được khai sinh tại hội thảo được tổ chức bởiMarvin Minsky, John McCarthy, Claude Shannon và Nathan Rochester diễn ra trong khuôn viên Đại học Dartmouth năm 1956. AI phát triển mạnh trong những năm 1950 đến giữa thập niên 1970, nhưng thoái trào từ giữa thập niên 1970 đến đầu thập niên 1980 – giai đoạn này được gọi là “AI Winter” (1974–1980)- rồi phát triển mạnh trở lại từ thập niên 1990 đến nay. Từ năm 2010, nhân loại đã chứng kiến sự phát triển bùng nổ các dự án và ứng dụng thực tế của trí tuệ nhân tạo, ví dụ như xe tự lái của Tesla Motors [*] hay robot của Facebook [*] và Amazon [*]. Ngày nay, đa phần chúng ta đều sử dụng các sản phẩm dựa trên trí tuệ nhân tạo của Google, Apple, Facebook hay Microsoft và nhiều công ty công nghệ khác.

Mối quan hệ giữa Trí tuệ nhân tạo – Học máy – Học sâu

Học sâu (Deep Learning) là một nhánh (mảng con) của học máy (Machine Learning). Học máy là một nhánh của trí tuệ nhân tạo. Hình 1 thể hiện các mối quan hệ này. Các phái học máy sẽ được trình bày trong Phần II. Tổng quan về học sâu sẽ được trình bày trong Phần III. Hình 2 cho thấy một số cột mốc, trong đó cho thấy học máy bắt đầu phát triển từ những năm 1980, học sâu thực sự bắt đầu thành công từ năm 2010. Mặc dù còn nhiều hạn chế như cần dữ liệu huấn luyện lớn, tiêu tốn nhiều nguồn lực tính toán cũng như năng lượng, thời gian huấn luyện lâu, gần như không thể gỡ lỗi (debug) – hoạt động như hộp đen – học sâu đã tạo ra đột phá vượt bậc gần đây, đặc biệt là lĩnh vực thị giác máy tính và xử lý ngôn ngữ tự nhiên. Sự đột phá đó tạo ra làn sóng mới về đầu tư và ứng dụng AI, mở ra niềm tin mạnh mẽ rằng thời đại mới đang tiến gần, khiến các quốc gia và các tổ chức phải điều chỉnh chiến lược vĩ mô lấy AI làm trọng tâm.


Hình 1: Quan hệ giữa AI-Học máy-Học sâu 


Hình 2: Quan hệ giữa AI-Học máy-Học sâu với các cột mốc thời gia  [*]

Học máy là gì?

Theo cố giáo sư Arthur Samuel, người khai sinh ra thuật ngữ Học máy: Học máy là mảng nghiên cứu cung cấp cho máy tính khả năng học mà không cần được lập trình một cách tường minh.

Theo các giáo sư Michael Jordan và Tom Mitchell: Học máy giải quyết câu hỏi làm thế nào để phát triển các máy tính cải thiện tự động thông qua kinh nghiệm. Về nền tảng, học máy nằm trên giao lộ của khoa học máy tính, thống kê và các lĩnh vực khác quan tâm đến: (i) sự cải thiện tự động qua thời gian, và (ii) suy diễn và ra quyết định dưới điều kiện không chắc chắn.

Học máy được phân thành ba loại chính: Học có giám sát (Supervised Learning), Học không có giám sát (Unsupervised Learning) và Học tăng cường (Reinforcement Learning). Nói một cách nôm na, học có giám sát là học cần có “thầy giáo”, theo nghĩa là cần phải cung cấp dữ liệu huấn luyện mang kinh nghiệm của “thầy” trong đó, ví dụ như khi cần máy học và sau đó tự xác định đâu là khuôn mặt người đâu là không thì phải cung cấp tập huấn luyện gồm các mẫu ảnh chứa mặt người và không có mặt người; trong khi đó học không giám sát thì không cần “thầy giáo”. Học không có giám sát được đánh giá là “true AI” và được xem là đích đến của nhiều mô hình học máy trong tương lai. Học tăng cường là xây dựng các tác tử thông minh (intelligent agent) có khả năng nhận thức được môi trường xung quanh và thực hiện các hành động tương ứng để đạt đến mục tiêu sao cho tổng giá trị thưởng là cao nhất, trong đó mỗi hành động được gán một giá trị thưởng cụ thể. AlphaGo, phần mềm thắng các đại kiện tướng cờ vây Lee Se-dol của Hàn Quốc và Ke Jie của Trung Quốc, là sẩn phẩm của học tăng cường.

Các phái học máy 


“Một đột phá trong Học máy sẽ có giá trị bằng 10 lần Microsofts.”
― Bill Gates
Trong cuốn sách “Thuật toán chủ: Cuộc tìm kiếm cổ máy học cuối cùng sẽ định hình lại thế giới của chúng ta như thế nào” [5], xuất bản năm 2015, giáo sư Pedro Domingos cho rằng có năm phái học máy, mỗi phái dùng một thuật toán chủ  (Master Algorithm)



Phái kí hiệu (Symbolists): Phái này xem học (learning) như là diễn dịch ngược, hay cũng có thể hiểu là một dạng qui nạp, theo nghĩa là lập luận để xác định cái tổng quát dựa trên cái chi tiết sử dụng các hệ thống thao tác trên kí hiệu. Ví dụ, nếu biết các tri thức kiểu như “Socrates là người” và “X” => “Socrates sẽ chết”, “Plato là người” và “X” => “Plato sẽ chết”, . . ., một giải thuật học dựa trên diễn dịch ngược sẽ lập luận để suy ra qui luật tổng quát: “X” = “Là người ai cũng sẽ chết”. Nền tảng của phái này là logic học, triết học và tâm lý học. Các đại diện tiêu biểu là Tom Mitchell, Steve Muggleton, Ross Quinlan. Thuật toán chủ là diễn dịch ngược (inverse deduction). Các giải thuật như học cây quyết định, lập luận dựa trên logic là các sản phẩm của phái này.

Phái kết nối (Connectionists): Phái kết nối chủ trương học là tái tạo lại hoạt động của bộ não. Các nơ-ron trong bộ não người được kết nối với nhau. Các kết nối có thể mạnh hoặc yếu. Người ta thường dùng trọng số (weight) để phản ánh độ mạnh yếu của các kết nối. Con người tiếp nhận thông tin đi vào các nơ-ron, từ đó thông tin được kích hoạt lan truyền dọc theo kết nối giữa các nơ-ron. Trọng số của các kết nối sẽ được điều chỉnh dựa trên sự sai biệt (error) kết quả học sử dụng thủ tục lan truyền ngược (backpropagation). Nền tảng của phái này là khoa học thần kinh và vật lý. Các đại diện tiêu biểu của phái này là Yann LeCun, Yoshua Bengio và Geoff Hinton. Thuật toán chủ là lan truyền ngược. Học sâu là sản phẩm tiêu biểu của phái này.
Phái tiến hoá (Evolutionaries): Phái này tin rằng cái quan trọng nhất của việc học là chọn lọc tự nhiên (natural selection). Bài toán học chính của phái này là học cấu trúc (learning structure) nhằm mô phỏng lại hoạt động chọn lọc tự nhiên cho phần mềm trên máy tính. Nền tảng của phái này là di truyền học và sinh học tiến hoá. Thuật toán chủ là lập trình tiến hoá (genetic programming), thực hiện phối giống và tiến hoá các chương trình máy tính giống như cách mà sinh vật phối giống và tiến hoá trong tự nhiên, với qui trình cơ bản: chọn lọc (chọn các cá thể tốt), lai tạo và đột biến. Đại diện tiêu biểu của phái này là John Koza, John Holland, Hod Lipson.  
 

Phái Bayes (Bayesians): Phái Bayes xem việc học là một dạng suy diễn xác suất dựa trên định lý Bayes và có nguồn gốc từ thống kê học. Đại diện tiêu biểu của phái này là David Hackerman, Judea Pearl, Michael Jordan. Thuật toán chủ là suy diễn Bayesian. Hơn tất cả, phái Bayes quan tâm đến sự không chắc chắn (uncertainty) và xem việc học, tự thân nó, là suy diễn không chắc chắn. Mô hình đồ thị xác suất (Probabilistic Graphical Models) và mô hình nhân quả (Causality) là các sản phẩm của phái này.

Phái loại suy (Analogizers): Học loại suy là học bằng cách ngoại suy
dựa trên sự tương tự. Trọng tâm của học loại suy là nhận biết các tình huống tương tự và luận ra kết quả từ đó. Ví dụ, với một hệ thống chẩn đoán bệnh, nếu hai bệnh nhân có triệu chứng giống nhau, thì có khả năng họ mắc phải cùng loại bệnh. Nền tảng của phái này là tâm lý học và tối ưu toán học. Thuật toán chủ của phái này là máy hạt nhân (kernel machine). Đại diện của phái này là Peter Hart, Vladimir Vaplik, Douglas Hofstadter, với các sản phẩm tiêu biểu K-láng-giềng-gần (k-nearest neighbors) và máy véc-tơ hỗ trợ (support vector machines).




Theo giáo sư Pedro Domingos, loại suy đóng vai trò chính trong học máy. Do vậy, cuối cùng năm phái nêu trên sẽ được hợp nhất thành một, gọi là loại suy sâu (deep analogy) – kết hợp máy hạt nhân và lập luận dựa trên loại suy. Ông dự báo trong một thập niên tới loại suy sâu sẽ thống lĩnh học máy. Trong khi đó, giáo sư Judea Pearl lại cho rằng lập luận dựa vào nguyên nhân kết quả (mô hình nhân quả – causality) dùng mạng Bayesian (Bayesian Networks) mới là tương lai của học máy [6]. “Causality” là ý tưởng quan trọng thứ hai sau “likelihood” trong thống kê học, nhưng lại không thể được biểu đạt bằng ngôn ngữ xác suất. Ví dụ như không thể dùng xác suất để biểu đạt khái niệm cơ bản như “bệnh có-nguyên-nhân-từ các-triệu-chứng”. Tương quan (correlation) là đối xứng, trong khi đó nhân quả, về cơ bản, là bất đối xứng. Vì vậy, ông cho rằng một mô hình học máy đột phá cần đặt trên nền tảng lập luận nhân quả.


Tài liệu tham khảo

[1]One Hundred Year Study on Artificial Intelligence (AI100). Stanford University, truy cập ngày 5 tháng 7, 2018, https://ai100.stanford.edu.
[2]John MacCarthy. What is Artificial Intelligence. http://www-formal.stanford.edu/jmc/whatisai/node1.html 
[3]Wikipedia. Artifical Intelligence. https://en.wikipedia.org/wiki/Artificial_intelligence, truy cập ngày 05 tháng 07 năm 2018.
[4]Nils J. Nilsson. The Quest for Artificial Intelligence: A History of Ideas and Achievements(Cambridge, UK: Cambridge University Press, 2010).
[5]Pedro Domingos . The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World (2015).
[6]Báo cáo tóm tắt hội nghị thượng đỉnh của Nhà trắng năm 2018 về Trí tuệ nhân tạo cho nền công nghiệp Mỹ.
https://www.whitehouse.gov/wp-content/uploads/2018/05/Summary-Report-of-White-House-AI-Summit.pdf