Mình đang đọc một cuốn sách khá thú vị về trí tuệ nhân tạo (AI) viết bởi nhà vật lý và vũ trụ học Max Tegmark, giáo sư ĐH MIT.
Cuốn sách tên là “Life 3.0: Being Human in the Age of Artificial Intelligence”, tạm dịch “Sự sống 3.0: Là con người trong thời đại AI.”
Tác giả dành khá nhiều đất trong cuốn sách nói về những hiểu nhầm về AI mà mình thường xuyên nghe được từ những người ngoài ngành. Mình xin mượn lời tác giả, đồng thời mạo muội thêm một ít suy nghĩ của mình, để chia sẻ về những hiểu nhầm này.
Tác giả bắt đầu bằng việc định nghĩa một số từ khoá liên quan đến AI.
Intelligence (trí tuệ):
Từ
điển Oxford định nghĩa là “khả năng tiếp thu và áp dụng kiến thức và kỹ năng”.
Tác giả định nghĩa lại là “khả năng hoàn thành những mục tiêu phức tạp.” Định
nghĩa này rộng hơn định nghĩa trong từ điển vì khả năng tiếp thu và sử dụng kỹ
năng có thể được coi là một mục tiêu phức tạp.
Artificial Intelligence (AI -
trí tuệ nhân tạo):
Trí
tuệ không có nền tảng từ sinh học.
Artificial General Intelligence
(AGI):
Khả
năng hoàn thành bất cứ công việc liên quan đến nhận thức nào tốt tương tự hay
tốt hơn con người.
Superintelligence (siêu trí tuệ):
Trí tuệ vượt xa con người.
Intelligence explosion (bùng nổ trí tuệ):
Trí
tuệ liên tục cải thiện bản thân một cách nhanh chóng dẫn đến siêu trí tuệ.
Singularity:
Bùng
nổ trí tuệ.
Hiểu nhầm 1: Chúng
ta biết chính xác khi nào sẽ có AGI
Nhiều người nghĩ rằng các chuyên gia trong ngành trí tuệ nhân tạo sẽ biết khi nào chúng ta có AGI. Sự thật là không ai biết. Đã có nhiều cuộc khảo sát các chuyên gia trong ngành họ nghĩ bao nhiêu năm nữa chúng ta có AGI, và chúng đều có chung kết luận: các chuyên gia hàng đầu thế giới có câu trả lời rất khác nhau. Ví dụ, khảo sát tại hội thảo về AI ở Puerto Rico cho câu trả lời trung tuyến là 2055, nhưng khá nhiều đoán là cần hàng trăm năm nữa. Không ai biết câu trả lời chính xác là gì.
Hiểu nhầm 2: Rủi ro
đến từ AI là vì AI muốn huỷ diệt con người
Nhiều người lo sợ rằng superintelligence nếu thành hiện thực sẽ trở thành kẻ thù của con người như trong phim Kẻ huỷ diệt. Khả năng này gần như là con số 0. Rủi ro đến từ AI không phải vì AI độc ác muốn giết con người, mà đơn giản là lợi ích của con người không nằm trong mục đích của AI. Ví dụ, khi con người xây một nhà máy gần tổ chim, con người chẳng có ác ý gì với chim cả nhưng vẫn phá huỷ tổ chim đó đơn giản vì sự tồn tại của tổ chim mâu thuẫn với mục đích con người muốn đạt được. Vì vậy, vì sự tồn tại của con người, chúng ta cần đảm bảo rằng AI có mục đích phù hợp với lợi ích của con người.
Hiểu nhầm 3: AI là
robot hình dạng giống con người
Khi mình nói là mình làm AI, khá nhiều người hào hứng nghĩ rằng mình làm việc với robot hình dạng con người. Các bộ phim về AI mình xem cũng thường xuyên mô tả AI mang dáng dấp con người. Sự thực là tạo ra robot giống con người là một cách tiếp cận không hiệu quả tí nào. Ví dụ, dạy cho robot đi bằng hai chân khó hơn nhiều là cho robot lăn hay bay. Thậm chí, AI có thể tồn tại mà không cần cơ thể.
Hiểu nhầm 4: AI
không thể thống trị được con người
Một số người nghĩ rằng AI chỉ là máy móc, chúng sẽ không thể nào thống trị được con người trong đời sống thực. Một lý lẽ nhiều người dùng rằng nếu AI vượt quá kiểm soát của con người, chúng ta chỉ cần rút dây cắm điện ra là xong. Họ quên mất rằng khi AI trở nên thông minh hơn con người, AI sẽ có nhiều phương thức con người không hiểu được. Con người có thể thống trị được các loài khác như hổ, voi không phải vì con người khoẻ hơn chúng, mà bởi vì con người thông minh hơn chúng. Tương tự như vậy, AI khi thông minh hơn con người sẽ có thể thống trị được con người.
Hiểu nhầm 5: Chúng
ta sẽ có thời gian chuẩn bị trước khi superintelligence tới
Bởi vì chúng ta hiện nay thậm chí còn chưa có trí tuệ nhân tạo mức độ con người, nhiều người nghĩ rằng siêu trí tuệ chắc sẽ phải còn chán mới xuất hiện. Sự thật là không có gì cho chúng biết trước rằng bước tiến từ AGI đến superintelligence sẽ cần bao nhiêu thời gian. Con người cũng như các thực thể sinh học khác bị giới hạn bởi phần cứng của chúng ta (cơ thể), để tiến hoá chúng ta cần một thời gian khá dài. Nhưng AI không bị giới hạn bởi phần cứng. Một khi AI đạt được mức trí tuệ tương đương với con người, chúng có thể liên tiếp tự thiết kể, cải thiện bản thân để thông minh hơn và đạt mức siêu trí tuệ vượt xa con người trong khoảng vài giờ, vài ngày, hay vài năm -- không ai biết trước được. Vậy nên, nếu chúng ta chỉ cần tin rằng có một khả năng nhỏ thôi rằng superintelligence sẽ tồn tại trong một thập kỷ nữa, chúng ta cần ngay lập tức lên phương án để đảm bảo rằng superintelligence đó sẽ không huỷ diệt loài người. Phương án này rất có thể cần cả thập kỷ để hoàn thiện.
Hiểu nhầm 6: Tuyên
truyền cho AI an toàn là những người không tin vào AI
Elon Musk, Stephen Hawking, cũng như nhiều người nổi tiếng khác đã lên tiếng về rủi ro đến từ AI.
(Stephen Hawking), nguồn: Google.com
Nhiều báo chí ngay lập tức trích dẫn lời của mấy người này và giật tít về AI huỷ hoại thế giới. Nhưng bạn không cần phải tin vào AI sẽ huỷ diệt thế giới để quan tâm đến quy định an toàn về AI, tương tự như việc chúng ta không cần phải tin chắc chắn rằng chúng ta sẽ gặp tai nạn để mua bảo hiểm xe cộ. Chỉ cần chúng ta tin rằng có một khả năng nhỏ thôi rằng AI sẽ tạo rủi ro cho con người, chúng ta nên quan tâm đến những quy định để đảm bảo sẽ có AI an toàn. Rất nhiều nhà nghiên cứu trí tuệ nhân tạo hàng đầu quan tâm đến vấn đề này. Các trung tâm nghiên cứu lớn như OpenAI, Salesforce Einstein, Google AI đang xây dựng đội ngũ phát triển quy định an toàn cho AI.
Bài viết đóng góp bởi Huyền Chip - Authority
------------
Theo dõi fanpage của Bookademy để cập nhật các thông tin thú vị về sách tại link: https://www.facebook.com/bookademy.vn
Trí tuệ nhân tạo (AI), dưới nhiều hình thức khác nhau, đã tồn tại từ khá lâu. Hầu hết chúng ta, chắc chắn, đã nhận thấy rằng từ "buzzword" này hiện đang xuất hiện thường xuyên trong nhiều lĩnh vực của hoạt động con người hiện đại (cho đến ngày hôm nay). Từ những điều nhỏ như việc bạn bè tôi gần đây để trí tuệ nhân tạo cắt và chỉnh sửa video GoPro của anh ta, đến IBM Watson với khả năng suy nghĩ sâu sắc, trí tuệ nhân tạo đã đến để thay đổi cuộc sống của chúng ta một cách vĩnh viễn.
Theo Marshall Brain, con người sẽ trở nên không quan trọng như gián. Thật vậy, nếu con người tạo ra một cái gì đó thông minh hơn họ để cải thiện cuộc sống của mình, tại sao trí tuệ này lại quan tâm đến chúng ta. Có một phép so sánh xuất sắc trong cuốn sách minh họa điểm này: một tổ kiến tạo ra một con người để cải thiện cuộc sống của tổ kiến. Bao lâu con người này sẽ quan tâm để chăm sóc những con kiến đó? Đây chỉ là một trong số nhiều ý tưởng thú vị mà độc giả có thể tìm thấy trong cuốn sách của Max Tegmark.
Ở giai đoạn này, trí tuệ nhân tạo có rất nhiều lĩnh vực chưa được chứng minh, câu hỏi chưa có câu trả lời, quan điểm mâu thuẫn về nguy cơ và cơ hội. Tác giả cố gắng giải quyết một phạm vi rất rộng của những vấn đề đó. Có rất nhiều luận đề suy luận trong cuốn sách. Trọng tâm của cuốn sách khá là cơ bản và triết học, so với việc thực tế và công nghệ hóa hiển thị ứng dụng rõ ràng của trí tuệ nhân tạo. Max Tegmark phân tích các khái niệm cơ bản quan trọng để trí tuệ nhân tạo xuất hiện và phát triển. Những khái niệm cơ bản này bao gồm mục tiêu, ý thức, học tập, trí nhớ, tính toán, v.v. Những khái niệm cơ bản này được hỗ trợ bằng vật lý, triết học và các khía cạnh xã hội của trí tuệ nhân tạo. Tác giả cung cấp một phạm vi rất rộng của các kịch bản có thể về tương lai của trí tuệ nhân tạo.