Mình đang đọc một cuốn sách khá thú vị về trí tuệ nhân tạo (AI) viết bởi nhà vật lý và vũ trụ học Max Tegmark, giáo sư ĐH MIT.
Cuốn sách tên là “Life 3.0: Being Human in the Age of Artificial Intelligence”, tạm dịch “Sự sống 3.0: Là con người trong thời đại AI.”
Tác giả dành khá nhiều đất trong cuốn sách nói về những hiểu nhầm về AI mà mình thường xuyên nghe được từ những người ngoài ngành. Mình xin mượn lời tác giả, đồng thời mạo muội thêm một ít suy nghĩ của mình, để chia sẻ về những hiểu nhầm này.
Tác giả bắt đầu bằng việc định nghĩa một số từ khoá liên quan đến AI.
Intelligence (trí tuệ):
Từ
điển Oxford định nghĩa là “khả năng tiếp thu và áp dụng kiến thức và kỹ năng”.
Tác giả định nghĩa lại là “khả năng hoàn thành những mục tiêu phức tạp.” Định
nghĩa này rộng hơn định nghĩa trong từ điển vì khả năng tiếp thu và sử dụng kỹ
năng có thể được coi là một mục tiêu phức tạp.
Artificial Intelligence (AI -
trí tuệ nhân tạo):
Trí
tuệ không có nền tảng từ sinh học.
Artificial General Intelligence
(AGI):
Khả
năng hoàn thành bất cứ công việc liên quan đến nhận thức nào tốt tương tự hay
tốt hơn con người.
Superintelligence (siêu trí tuệ):
Trí tuệ vượt xa con người.
Intelligence explosion (bùng nổ trí tuệ):
Trí
tuệ liên tục cải thiện bản thân một cách nhanh chóng dẫn đến siêu trí tuệ.
Singularity:
Bùng
nổ trí tuệ.
Hiểu nhầm 1: Chúng
ta biết chính xác khi nào sẽ có AGI
Nhiều người nghĩ rằng các chuyên gia trong ngành trí tuệ nhân tạo sẽ biết khi nào chúng ta có AGI. Sự thật là không ai biết. Đã có nhiều cuộc khảo sát các chuyên gia trong ngành họ nghĩ bao nhiêu năm nữa chúng ta có AGI, và chúng đều có chung kết luận: các chuyên gia hàng đầu thế giới có câu trả lời rất khác nhau. Ví dụ, khảo sát tại hội thảo về AI ở Puerto Rico cho câu trả lời trung tuyến là 2055, nhưng khá nhiều đoán là cần hàng trăm năm nữa. Không ai biết câu trả lời chính xác là gì.
Hiểu nhầm 2: Rủi ro
đến từ AI là vì AI muốn huỷ diệt con người
Nhiều người lo sợ rằng superintelligence nếu thành hiện thực sẽ trở thành kẻ thù của con người như trong phim Kẻ huỷ diệt. Khả năng này gần như là con số 0. Rủi ro đến từ AI không phải vì AI độc ác muốn giết con người, mà đơn giản là lợi ích của con người không nằm trong mục đích của AI. Ví dụ, khi con người xây một nhà máy gần tổ chim, con người chẳng có ác ý gì với chim cả nhưng vẫn phá huỷ tổ chim đó đơn giản vì sự tồn tại của tổ chim mâu thuẫn với mục đích con người muốn đạt được. Vì vậy, vì sự tồn tại của con người, chúng ta cần đảm bảo rằng AI có mục đích phù hợp với lợi ích của con người.
Hiểu nhầm 3: AI là
robot hình dạng giống con người
Khi mình nói là mình làm AI, khá nhiều người hào hứng nghĩ rằng mình làm việc với robot hình dạng con người. Các bộ phim về AI mình xem cũng thường xuyên mô tả AI mang dáng dấp con người. Sự thực là tạo ra robot giống con người là một cách tiếp cận không hiệu quả tí nào. Ví dụ, dạy cho robot đi bằng hai chân khó hơn nhiều là cho robot lăn hay bay. Thậm chí, AI có thể tồn tại mà không cần cơ thể.
Hiểu nhầm 4: AI
không thể thống trị được con người
Một số người nghĩ rằng AI chỉ là máy móc, chúng sẽ không thể nào thống trị được con người trong đời sống thực. Một lý lẽ nhiều người dùng rằng nếu AI vượt quá kiểm soát của con người, chúng ta chỉ cần rút dây cắm điện ra là xong. Họ quên mất rằng khi AI trở nên thông minh hơn con người, AI sẽ có nhiều phương thức con người không hiểu được. Con người có thể thống trị được các loài khác như hổ, voi không phải vì con người khoẻ hơn chúng, mà bởi vì con người thông minh hơn chúng. Tương tự như vậy, AI khi thông minh hơn con người sẽ có thể thống trị được con người.
Hiểu nhầm 5: Chúng
ta sẽ có thời gian chuẩn bị trước khi superintelligence tới
Bởi vì chúng ta hiện nay thậm chí còn chưa có trí tuệ nhân tạo mức độ con người, nhiều người nghĩ rằng siêu trí tuệ chắc sẽ phải còn chán mới xuất hiện. Sự thật là không có gì cho chúng biết trước rằng bước tiến từ AGI đến superintelligence sẽ cần bao nhiêu thời gian. Con người cũng như các thực thể sinh học khác bị giới hạn bởi phần cứng của chúng ta (cơ thể), để tiến hoá chúng ta cần một thời gian khá dài. Nhưng AI không bị giới hạn bởi phần cứng. Một khi AI đạt được mức trí tuệ tương đương với con người, chúng có thể liên tiếp tự thiết kể, cải thiện bản thân để thông minh hơn và đạt mức siêu trí tuệ vượt xa con người trong khoảng vài giờ, vài ngày, hay vài năm -- không ai biết trước được. Vậy nên, nếu chúng ta chỉ cần tin rằng có một khả năng nhỏ thôi rằng superintelligence sẽ tồn tại trong một thập kỷ nữa, chúng ta cần ngay lập tức lên phương án để đảm bảo rằng superintelligence đó sẽ không huỷ diệt loài người. Phương án này rất có thể cần cả thập kỷ để hoàn thiện.
Hiểu nhầm 6: Tuyên
truyền cho AI an toàn là những người không tin vào AI
Elon Musk, Stephen Hawking, cũng như nhiều người nổi tiếng khác đã lên tiếng về rủi ro đến từ AI.
(Stephen Hawking), nguồn: Google.com
Nhiều báo chí ngay lập tức trích dẫn lời của mấy người này và giật tít về AI huỷ hoại thế giới. Nhưng bạn không cần phải tin vào AI sẽ huỷ diệt thế giới để quan tâm đến quy định an toàn về AI, tương tự như việc chúng ta không cần phải tin chắc chắn rằng chúng ta sẽ gặp tai nạn để mua bảo hiểm xe cộ. Chỉ cần chúng ta tin rằng có một khả năng nhỏ thôi rằng AI sẽ tạo rủi ro cho con người, chúng ta nên quan tâm đến những quy định để đảm bảo sẽ có AI an toàn. Rất nhiều nhà nghiên cứu trí tuệ nhân tạo hàng đầu quan tâm đến vấn đề này. Các trung tâm nghiên cứu lớn như OpenAI, Salesforce Einstein, Google AI đang xây dựng đội ngũ phát triển quy định an toàn cho AI.
Bài viết đóng góp bởi Huyền Chip - Authority
------------
Theo dõi fanpage của Bookademy để cập nhật các thông tin thú vị về sách tại link: https://www.facebook.com/bookademy.vn
Nếu một cỗ máy có thể suy nghĩ, nó có thể suy nghĩ thông minh hơn cả chúng ta, và khi đó, chúng ta sẽ ra sao? Dù có thể giữ máy móc trong sự phục tùng... chúng ta, với tư cách là một loài, cũng sẽ cảm thấy vô cùng khiêm nhường. Cuốn sách “Sự sống 3.0: Con người trong kỷ nguyên trí tuệ nhân tạo” của Max Tegmark, giáo sư MIT và tác giả của những cuốn sách như “Vũ trụ toán học của chúng ta”, đặt ra một câu hỏi giản dị nhưng đầy sâu sắc: trí tuệ nhân tạo (AI) sẽ định nghĩa lại chúng ta và tương lai như thế nào? Liệu siêu trí tuệ sẽ xuất hiện? Khi nào? Dưới hình thức nào? Nó sẽ hủy diệt, cứu rỗi, chung sống hay phớt lờ chúng ta? Gần đây hay xa xôi, điều gì có thể xảy ra? Ý thức là gì? Nói một cách giật gân, liệu tương lai sẽ là Terminator, TARS hay một hình thái khác hoàn toàn? Cuốn sách dày dặn này được chia thành 8 chương. Tác giả đã khéo léo xây dựng nên một cấu trúc rõ ràng, và tôi sẽ mạn phép sử dụng lại lời giới thiệu của ông ấy.