Mình đang đọc một cuốn sách khá thú vị về trí tuệ nhân tạo (AI) viết bởi nhà vật lý và vũ trụ học Max Tegmark, giáo sư ĐH MIT.
Cuốn sách tên là “Life 3.0: Being Human in the Age of Artificial Intelligence”, tạm dịch “Sự sống 3.0: Là con người trong thời đại AI.”
Tác giả dành khá nhiều đất trong cuốn sách nói về những hiểu nhầm về AI mà mình thường xuyên nghe được từ những người ngoài ngành. Mình xin mượn lời tác giả, đồng thời mạo muội thêm một ít suy nghĩ của mình, để chia sẻ về những hiểu nhầm này.
Tác giả bắt đầu bằng việc định nghĩa một số từ khoá liên quan đến AI.
Intelligence (trí tuệ):
Từ
điển Oxford định nghĩa là “khả năng tiếp thu và áp dụng kiến thức và kỹ năng”.
Tác giả định nghĩa lại là “khả năng hoàn thành những mục tiêu phức tạp.” Định
nghĩa này rộng hơn định nghĩa trong từ điển vì khả năng tiếp thu và sử dụng kỹ
năng có thể được coi là một mục tiêu phức tạp.
Artificial Intelligence (AI -
trí tuệ nhân tạo):
Trí
tuệ không có nền tảng từ sinh học.
Artificial General Intelligence
(AGI):
Khả
năng hoàn thành bất cứ công việc liên quan đến nhận thức nào tốt tương tự hay
tốt hơn con người.
Superintelligence (siêu trí tuệ):
Trí tuệ vượt xa con người.
Intelligence explosion (bùng nổ trí tuệ):
Trí
tuệ liên tục cải thiện bản thân một cách nhanh chóng dẫn đến siêu trí tuệ.
Singularity:
Bùng
nổ trí tuệ.
Hiểu nhầm 1: Chúng
ta biết chính xác khi nào sẽ có AGI
Nhiều người nghĩ rằng các chuyên gia trong ngành trí tuệ nhân tạo sẽ biết khi nào chúng ta có AGI. Sự thật là không ai biết. Đã có nhiều cuộc khảo sát các chuyên gia trong ngành họ nghĩ bao nhiêu năm nữa chúng ta có AGI, và chúng đều có chung kết luận: các chuyên gia hàng đầu thế giới có câu trả lời rất khác nhau. Ví dụ, khảo sát tại hội thảo về AI ở Puerto Rico cho câu trả lời trung tuyến là 2055, nhưng khá nhiều đoán là cần hàng trăm năm nữa. Không ai biết câu trả lời chính xác là gì.
Hiểu nhầm 2: Rủi ro
đến từ AI là vì AI muốn huỷ diệt con người
Nhiều người lo sợ rằng superintelligence nếu thành hiện thực sẽ trở thành kẻ thù của con người như trong phim Kẻ huỷ diệt. Khả năng này gần như là con số 0. Rủi ro đến từ AI không phải vì AI độc ác muốn giết con người, mà đơn giản là lợi ích của con người không nằm trong mục đích của AI. Ví dụ, khi con người xây một nhà máy gần tổ chim, con người chẳng có ác ý gì với chim cả nhưng vẫn phá huỷ tổ chim đó đơn giản vì sự tồn tại của tổ chim mâu thuẫn với mục đích con người muốn đạt được. Vì vậy, vì sự tồn tại của con người, chúng ta cần đảm bảo rằng AI có mục đích phù hợp với lợi ích của con người.
Hiểu nhầm 3: AI là
robot hình dạng giống con người
Khi mình nói là mình làm AI, khá nhiều người hào hứng nghĩ rằng mình làm việc với robot hình dạng con người. Các bộ phim về AI mình xem cũng thường xuyên mô tả AI mang dáng dấp con người. Sự thực là tạo ra robot giống con người là một cách tiếp cận không hiệu quả tí nào. Ví dụ, dạy cho robot đi bằng hai chân khó hơn nhiều là cho robot lăn hay bay. Thậm chí, AI có thể tồn tại mà không cần cơ thể.
Hiểu nhầm 4: AI
không thể thống trị được con người
Một số người nghĩ rằng AI chỉ là máy móc, chúng sẽ không thể nào thống trị được con người trong đời sống thực. Một lý lẽ nhiều người dùng rằng nếu AI vượt quá kiểm soát của con người, chúng ta chỉ cần rút dây cắm điện ra là xong. Họ quên mất rằng khi AI trở nên thông minh hơn con người, AI sẽ có nhiều phương thức con người không hiểu được. Con người có thể thống trị được các loài khác như hổ, voi không phải vì con người khoẻ hơn chúng, mà bởi vì con người thông minh hơn chúng. Tương tự như vậy, AI khi thông minh hơn con người sẽ có thể thống trị được con người.
Hiểu nhầm 5: Chúng
ta sẽ có thời gian chuẩn bị trước khi superintelligence tới
Bởi vì chúng ta hiện nay thậm chí còn chưa có trí tuệ nhân tạo mức độ con người, nhiều người nghĩ rằng siêu trí tuệ chắc sẽ phải còn chán mới xuất hiện. Sự thật là không có gì cho chúng biết trước rằng bước tiến từ AGI đến superintelligence sẽ cần bao nhiêu thời gian. Con người cũng như các thực thể sinh học khác bị giới hạn bởi phần cứng của chúng ta (cơ thể), để tiến hoá chúng ta cần một thời gian khá dài. Nhưng AI không bị giới hạn bởi phần cứng. Một khi AI đạt được mức trí tuệ tương đương với con người, chúng có thể liên tiếp tự thiết kể, cải thiện bản thân để thông minh hơn và đạt mức siêu trí tuệ vượt xa con người trong khoảng vài giờ, vài ngày, hay vài năm -- không ai biết trước được. Vậy nên, nếu chúng ta chỉ cần tin rằng có một khả năng nhỏ thôi rằng superintelligence sẽ tồn tại trong một thập kỷ nữa, chúng ta cần ngay lập tức lên phương án để đảm bảo rằng superintelligence đó sẽ không huỷ diệt loài người. Phương án này rất có thể cần cả thập kỷ để hoàn thiện.
Hiểu nhầm 6: Tuyên
truyền cho AI an toàn là những người không tin vào AI
Elon Musk, Stephen Hawking, cũng như nhiều người nổi tiếng khác đã lên tiếng về rủi ro đến từ AI.
(Stephen Hawking), nguồn: Google.com
Nhiều báo chí ngay lập tức trích dẫn lời của mấy người này và giật tít về AI huỷ hoại thế giới. Nhưng bạn không cần phải tin vào AI sẽ huỷ diệt thế giới để quan tâm đến quy định an toàn về AI, tương tự như việc chúng ta không cần phải tin chắc chắn rằng chúng ta sẽ gặp tai nạn để mua bảo hiểm xe cộ. Chỉ cần chúng ta tin rằng có một khả năng nhỏ thôi rằng AI sẽ tạo rủi ro cho con người, chúng ta nên quan tâm đến những quy định để đảm bảo sẽ có AI an toàn. Rất nhiều nhà nghiên cứu trí tuệ nhân tạo hàng đầu quan tâm đến vấn đề này. Các trung tâm nghiên cứu lớn như OpenAI, Salesforce Einstein, Google AI đang xây dựng đội ngũ phát triển quy định an toàn cho AI.
Bài viết đóng góp bởi Huyền Chip - Authority
------------
Theo dõi fanpage của Bookademy để cập nhật các thông tin thú vị về sách tại link: https://www.facebook.com/bookademy.vn
Cuốn sách thứ 68 trong năm 2017.
Cuốn sách này đối với tôi nằm đâu đó giữa 2 và 3 sao.
Cuốn sách tập trung vào những nguy cơ lâu dài của Trí tuệ Nhân tạo Tổng quát. Những vấn đề có thể xảy ra với cháu trai của HAL3000 trong tương lai xa xôi. Không có thảo luận về nguy cơ ngắn hạn đến trung hạn từ AI phá hủy hàng triệu việc làm. Cuốn sách này tập trung chặt chẽ vào nguy cơ của thời đại siêu trí tuệ sắp đến.
Một trong những nguy cơ được nhắc đến nhiều lần là "làm sao để tiếp tục sống khi tôi không còn là người thông minh nhất trong phòng?" loại vấn đề mà tôi đoán hầu hết các giáo sư MIT không có quá nhiều lo lắng.
Việc khen ngợi/liên tục nhắc đến các nhà nghiên cứu khác nhau làm tôi phiền lòng/ mất tập trung (ví dụ, vợ tôi và tôi đã có một bữa tối thú vị với Elon Musk nơi chúng tôi thảo luận v.v.v.v). Mô tả về Tononi trong chương về ý thức quá lố bịch khiến tôi bị sặc cà phê vì cười.
Tôi không phiền nếu việc suy luận về tương lai sâu hơn nếu nó cảm thấy phong phú hơn. Đây là một cuộc đi bộ bình thường qua lãnh thổ trí tuệ nhân tạo đã được nhiều tác phẩm khoa học viễn tưởng khác khai thác tốt hơn. Chủ đề tôi biết rõ nhất, ý thức, được đề cập một cách nông cạn và khá thiên vị, điều này khiến tôi lo lắng rằng những lĩnh vực tôi không biết rõ cũng bị thiếu sót tương tự.
Tôi nghĩ rằng Superintelligence của Nick Bostrom sẽ mang lại một trải nghiệm đọc tốt hơn nhiều.