Mình đang đọc một cuốn sách khá thú vị về trí tuệ nhân tạo (AI) viết bởi nhà vật lý và vũ trụ học Max Tegmark, giáo sư ĐH MIT.
Cuốn sách tên là “Life 3.0: Being Human in the Age of Artificial Intelligence”, tạm dịch “Sự sống 3.0: Là con người trong thời đại AI.”
Tác giả dành khá nhiều đất trong cuốn sách nói về những hiểu nhầm về AI mà mình thường xuyên nghe được từ những người ngoài ngành. Mình xin mượn lời tác giả, đồng thời mạo muội thêm một ít suy nghĩ của mình, để chia sẻ về những hiểu nhầm này.
Tác giả bắt đầu bằng việc định nghĩa một số từ khoá liên quan đến AI.
Intelligence (trí tuệ):
Từ
điển Oxford định nghĩa là “khả năng tiếp thu và áp dụng kiến thức và kỹ năng”.
Tác giả định nghĩa lại là “khả năng hoàn thành những mục tiêu phức tạp.” Định
nghĩa này rộng hơn định nghĩa trong từ điển vì khả năng tiếp thu và sử dụng kỹ
năng có thể được coi là một mục tiêu phức tạp.
Artificial Intelligence (AI -
trí tuệ nhân tạo):
Trí
tuệ không có nền tảng từ sinh học.
Artificial General Intelligence
(AGI):
Khả
năng hoàn thành bất cứ công việc liên quan đến nhận thức nào tốt tương tự hay
tốt hơn con người.
Superintelligence (siêu trí tuệ):
Trí tuệ vượt xa con người.
Intelligence explosion (bùng nổ trí tuệ):
Trí
tuệ liên tục cải thiện bản thân một cách nhanh chóng dẫn đến siêu trí tuệ.
Singularity:
Bùng
nổ trí tuệ.
Hiểu nhầm 1: Chúng
ta biết chính xác khi nào sẽ có AGI
Nhiều người nghĩ rằng các chuyên gia trong ngành trí tuệ nhân tạo sẽ biết khi nào chúng ta có AGI. Sự thật là không ai biết. Đã có nhiều cuộc khảo sát các chuyên gia trong ngành họ nghĩ bao nhiêu năm nữa chúng ta có AGI, và chúng đều có chung kết luận: các chuyên gia hàng đầu thế giới có câu trả lời rất khác nhau. Ví dụ, khảo sát tại hội thảo về AI ở Puerto Rico cho câu trả lời trung tuyến là 2055, nhưng khá nhiều đoán là cần hàng trăm năm nữa. Không ai biết câu trả lời chính xác là gì.
Hiểu nhầm 2: Rủi ro
đến từ AI là vì AI muốn huỷ diệt con người
Nhiều người lo sợ rằng superintelligence nếu thành hiện thực sẽ trở thành kẻ thù của con người như trong phim Kẻ huỷ diệt. Khả năng này gần như là con số 0. Rủi ro đến từ AI không phải vì AI độc ác muốn giết con người, mà đơn giản là lợi ích của con người không nằm trong mục đích của AI. Ví dụ, khi con người xây một nhà máy gần tổ chim, con người chẳng có ác ý gì với chim cả nhưng vẫn phá huỷ tổ chim đó đơn giản vì sự tồn tại của tổ chim mâu thuẫn với mục đích con người muốn đạt được. Vì vậy, vì sự tồn tại của con người, chúng ta cần đảm bảo rằng AI có mục đích phù hợp với lợi ích của con người.
Hiểu nhầm 3: AI là
robot hình dạng giống con người
Khi mình nói là mình làm AI, khá nhiều người hào hứng nghĩ rằng mình làm việc với robot hình dạng con người. Các bộ phim về AI mình xem cũng thường xuyên mô tả AI mang dáng dấp con người. Sự thực là tạo ra robot giống con người là một cách tiếp cận không hiệu quả tí nào. Ví dụ, dạy cho robot đi bằng hai chân khó hơn nhiều là cho robot lăn hay bay. Thậm chí, AI có thể tồn tại mà không cần cơ thể.
Hiểu nhầm 4: AI
không thể thống trị được con người
Một số người nghĩ rằng AI chỉ là máy móc, chúng sẽ không thể nào thống trị được con người trong đời sống thực. Một lý lẽ nhiều người dùng rằng nếu AI vượt quá kiểm soát của con người, chúng ta chỉ cần rút dây cắm điện ra là xong. Họ quên mất rằng khi AI trở nên thông minh hơn con người, AI sẽ có nhiều phương thức con người không hiểu được. Con người có thể thống trị được các loài khác như hổ, voi không phải vì con người khoẻ hơn chúng, mà bởi vì con người thông minh hơn chúng. Tương tự như vậy, AI khi thông minh hơn con người sẽ có thể thống trị được con người.
Hiểu nhầm 5: Chúng
ta sẽ có thời gian chuẩn bị trước khi superintelligence tới
Bởi vì chúng ta hiện nay thậm chí còn chưa có trí tuệ nhân tạo mức độ con người, nhiều người nghĩ rằng siêu trí tuệ chắc sẽ phải còn chán mới xuất hiện. Sự thật là không có gì cho chúng biết trước rằng bước tiến từ AGI đến superintelligence sẽ cần bao nhiêu thời gian. Con người cũng như các thực thể sinh học khác bị giới hạn bởi phần cứng của chúng ta (cơ thể), để tiến hoá chúng ta cần một thời gian khá dài. Nhưng AI không bị giới hạn bởi phần cứng. Một khi AI đạt được mức trí tuệ tương đương với con người, chúng có thể liên tiếp tự thiết kể, cải thiện bản thân để thông minh hơn và đạt mức siêu trí tuệ vượt xa con người trong khoảng vài giờ, vài ngày, hay vài năm -- không ai biết trước được. Vậy nên, nếu chúng ta chỉ cần tin rằng có một khả năng nhỏ thôi rằng superintelligence sẽ tồn tại trong một thập kỷ nữa, chúng ta cần ngay lập tức lên phương án để đảm bảo rằng superintelligence đó sẽ không huỷ diệt loài người. Phương án này rất có thể cần cả thập kỷ để hoàn thiện.
Hiểu nhầm 6: Tuyên
truyền cho AI an toàn là những người không tin vào AI
Elon Musk, Stephen Hawking, cũng như nhiều người nổi tiếng khác đã lên tiếng về rủi ro đến từ AI.
(Stephen Hawking), nguồn: Google.com
Nhiều báo chí ngay lập tức trích dẫn lời của mấy người này và giật tít về AI huỷ hoại thế giới. Nhưng bạn không cần phải tin vào AI sẽ huỷ diệt thế giới để quan tâm đến quy định an toàn về AI, tương tự như việc chúng ta không cần phải tin chắc chắn rằng chúng ta sẽ gặp tai nạn để mua bảo hiểm xe cộ. Chỉ cần chúng ta tin rằng có một khả năng nhỏ thôi rằng AI sẽ tạo rủi ro cho con người, chúng ta nên quan tâm đến những quy định để đảm bảo sẽ có AI an toàn. Rất nhiều nhà nghiên cứu trí tuệ nhân tạo hàng đầu quan tâm đến vấn đề này. Các trung tâm nghiên cứu lớn như OpenAI, Salesforce Einstein, Google AI đang xây dựng đội ngũ phát triển quy định an toàn cho AI.
Bài viết đóng góp bởi Huyền Chip - Authority
------------
Theo dõi fanpage của Bookademy để cập nhật các thông tin thú vị về sách tại link: https://www.facebook.com/bookademy.vn
Cuộc sống 3.0 đôi khi làm người đọc sáng mắt và đôi khi khiến họ tức giận. Đây là một cuốn sách đáng đọc vì những phần rất rõ ràng.
Chúng ta có khả năng sẽ sớm phát minh ra Trí tuệ Nhân tạo (A.I.). (1) Điều gì có thể xảy ra tiếp theo, và (2) điều gì nên xảy ra tiếp theo?
Để giải quyết triệt để chủ đề này, chúng ta cần một người nghiên cứu trí tuệ nhân tạo không thiên vị, một nhà tâm lý học, một nhà não học, một triết gia đạo đức, một triết gia siêu hình, một triết gia tâm lý học, một nhà kinh tế học, một nhà khoa học chính trị, một nhà thơ, và có lẽ còn nhiều người khác nữa. Vì người đó không tồn tại, chúng ta phải chấp nhận Tegmark, người không thuộc về bất kỳ danh nghĩa nào ở trên. Ông là một nhà vật lý và một nhà vũ trụ học. Kết quả là, Tegmark thường cố gắng ép buộc các câu trả lời dạng vật lý vào các vấn đề dạng trí tuệ nhân tạo/kinh tế/ triết học/v.v.: khi bạn chỉ có một cây búa, mọi thứ đều trông giống như một cái đinh.
Tuy nhiên, Tegmark thông minh, tò mò và cởi mở, và có tài năng ấn tượng trong việc kết nối, phần nào được hỗ trợ bởi bằng cấp của ông là một nhà vật lý. Ông có quyền truy cập ưu tiên vào một loạt các tư duy hàng đầu từ các lĩnh vực khác nhau, bao gồm nhiều người đứng đầu trong nghiên cứu trí tuệ nhân tạo. Trong cuốn sách Cuộc sống 3.0, Tegmark thể hiện bản thân ở tốt nhất khi ông hoạt động như một người quản lý và phiên dịch viên, giải thích một loạt các ý tưởng một cách đơn giản, dễ tiếp cận. Có rất nhiều điều thú vị để học hỏi từ cuốn sách này, với các lĩnh vực đa dạng như lý thuyết trò chơi (áp dụng cho tổ chức phân cấp), các diễn giải của luật lý vật lý và các tương lai tiềm năng do sự xuất hiện của trí tuệ nhân tạo cấp con người. Chúng thường được đề cập ở mức độ khá nông cạn, nhưng bạn phải bắt đầu từ đâu đó.