Mình đang đọc một cuốn sách khá thú vị về trí tuệ nhân tạo (AI) viết bởi nhà vật lý và vũ trụ học Max Tegmark, giáo sư ĐH MIT.
Cuốn sách tên là “Life 3.0: Being Human in the Age of Artificial Intelligence”, tạm dịch “Sự sống 3.0: Là con người trong thời đại AI.”
Tác giả dành khá nhiều đất trong cuốn sách nói về những hiểu nhầm về AI mà mình thường xuyên nghe được từ những người ngoài ngành. Mình xin mượn lời tác giả, đồng thời mạo muội thêm một ít suy nghĩ của mình, để chia sẻ về những hiểu nhầm này.
Tác giả bắt đầu bằng việc định nghĩa một số từ khoá liên quan đến AI.
Intelligence (trí tuệ):
Từ
điển Oxford định nghĩa là “khả năng tiếp thu và áp dụng kiến thức và kỹ năng”.
Tác giả định nghĩa lại là “khả năng hoàn thành những mục tiêu phức tạp.” Định
nghĩa này rộng hơn định nghĩa trong từ điển vì khả năng tiếp thu và sử dụng kỹ
năng có thể được coi là một mục tiêu phức tạp.
Artificial Intelligence (AI -
trí tuệ nhân tạo):
Trí
tuệ không có nền tảng từ sinh học.
Artificial General Intelligence
(AGI):
Khả
năng hoàn thành bất cứ công việc liên quan đến nhận thức nào tốt tương tự hay
tốt hơn con người.
Superintelligence (siêu trí tuệ):
Trí tuệ vượt xa con người.
Intelligence explosion (bùng nổ trí tuệ):
Trí
tuệ liên tục cải thiện bản thân một cách nhanh chóng dẫn đến siêu trí tuệ.
Singularity:
Bùng
nổ trí tuệ.
Hiểu nhầm 1: Chúng
ta biết chính xác khi nào sẽ có AGI
Nhiều người nghĩ rằng các chuyên gia trong ngành trí tuệ nhân tạo sẽ biết khi nào chúng ta có AGI. Sự thật là không ai biết. Đã có nhiều cuộc khảo sát các chuyên gia trong ngành họ nghĩ bao nhiêu năm nữa chúng ta có AGI, và chúng đều có chung kết luận: các chuyên gia hàng đầu thế giới có câu trả lời rất khác nhau. Ví dụ, khảo sát tại hội thảo về AI ở Puerto Rico cho câu trả lời trung tuyến là 2055, nhưng khá nhiều đoán là cần hàng trăm năm nữa. Không ai biết câu trả lời chính xác là gì.
Hiểu nhầm 2: Rủi ro
đến từ AI là vì AI muốn huỷ diệt con người
Nhiều người lo sợ rằng superintelligence nếu thành hiện thực sẽ trở thành kẻ thù của con người như trong phim Kẻ huỷ diệt. Khả năng này gần như là con số 0. Rủi ro đến từ AI không phải vì AI độc ác muốn giết con người, mà đơn giản là lợi ích của con người không nằm trong mục đích của AI. Ví dụ, khi con người xây một nhà máy gần tổ chim, con người chẳng có ác ý gì với chim cả nhưng vẫn phá huỷ tổ chim đó đơn giản vì sự tồn tại của tổ chim mâu thuẫn với mục đích con người muốn đạt được. Vì vậy, vì sự tồn tại của con người, chúng ta cần đảm bảo rằng AI có mục đích phù hợp với lợi ích của con người.
Hiểu nhầm 3: AI là
robot hình dạng giống con người
Khi mình nói là mình làm AI, khá nhiều người hào hứng nghĩ rằng mình làm việc với robot hình dạng con người. Các bộ phim về AI mình xem cũng thường xuyên mô tả AI mang dáng dấp con người. Sự thực là tạo ra robot giống con người là một cách tiếp cận không hiệu quả tí nào. Ví dụ, dạy cho robot đi bằng hai chân khó hơn nhiều là cho robot lăn hay bay. Thậm chí, AI có thể tồn tại mà không cần cơ thể.
Hiểu nhầm 4: AI
không thể thống trị được con người
Một số người nghĩ rằng AI chỉ là máy móc, chúng sẽ không thể nào thống trị được con người trong đời sống thực. Một lý lẽ nhiều người dùng rằng nếu AI vượt quá kiểm soát của con người, chúng ta chỉ cần rút dây cắm điện ra là xong. Họ quên mất rằng khi AI trở nên thông minh hơn con người, AI sẽ có nhiều phương thức con người không hiểu được. Con người có thể thống trị được các loài khác như hổ, voi không phải vì con người khoẻ hơn chúng, mà bởi vì con người thông minh hơn chúng. Tương tự như vậy, AI khi thông minh hơn con người sẽ có thể thống trị được con người.
Hiểu nhầm 5: Chúng
ta sẽ có thời gian chuẩn bị trước khi superintelligence tới
Bởi vì chúng ta hiện nay thậm chí còn chưa có trí tuệ nhân tạo mức độ con người, nhiều người nghĩ rằng siêu trí tuệ chắc sẽ phải còn chán mới xuất hiện. Sự thật là không có gì cho chúng biết trước rằng bước tiến từ AGI đến superintelligence sẽ cần bao nhiêu thời gian. Con người cũng như các thực thể sinh học khác bị giới hạn bởi phần cứng của chúng ta (cơ thể), để tiến hoá chúng ta cần một thời gian khá dài. Nhưng AI không bị giới hạn bởi phần cứng. Một khi AI đạt được mức trí tuệ tương đương với con người, chúng có thể liên tiếp tự thiết kể, cải thiện bản thân để thông minh hơn và đạt mức siêu trí tuệ vượt xa con người trong khoảng vài giờ, vài ngày, hay vài năm -- không ai biết trước được. Vậy nên, nếu chúng ta chỉ cần tin rằng có một khả năng nhỏ thôi rằng superintelligence sẽ tồn tại trong một thập kỷ nữa, chúng ta cần ngay lập tức lên phương án để đảm bảo rằng superintelligence đó sẽ không huỷ diệt loài người. Phương án này rất có thể cần cả thập kỷ để hoàn thiện.
Hiểu nhầm 6: Tuyên
truyền cho AI an toàn là những người không tin vào AI
Elon Musk, Stephen Hawking, cũng như nhiều người nổi tiếng khác đã lên tiếng về rủi ro đến từ AI.
(Stephen Hawking), nguồn: Google.com
Nhiều báo chí ngay lập tức trích dẫn lời của mấy người này và giật tít về AI huỷ hoại thế giới. Nhưng bạn không cần phải tin vào AI sẽ huỷ diệt thế giới để quan tâm đến quy định an toàn về AI, tương tự như việc chúng ta không cần phải tin chắc chắn rằng chúng ta sẽ gặp tai nạn để mua bảo hiểm xe cộ. Chỉ cần chúng ta tin rằng có một khả năng nhỏ thôi rằng AI sẽ tạo rủi ro cho con người, chúng ta nên quan tâm đến những quy định để đảm bảo sẽ có AI an toàn. Rất nhiều nhà nghiên cứu trí tuệ nhân tạo hàng đầu quan tâm đến vấn đề này. Các trung tâm nghiên cứu lớn như OpenAI, Salesforce Einstein, Google AI đang xây dựng đội ngũ phát triển quy định an toàn cho AI.
Bài viết đóng góp bởi Huyền Chip - Authority
------------
Theo dõi fanpage của Bookademy để cập nhật các thông tin thú vị về sách tại link: https://www.facebook.com/bookademy.vn
Đã có vô số những tác phẩm nghiên cứu về chủ đề này, và hàng loạt công trình học thuật lớn đang được tiến hành. Nhưng cuốn sách của Tegmark là độc nhất vô nhị bởi thay vì chỉ đơn thuần gióng lên hồi chuông cảnh báo, nó đang thực sự tìm kiếm một giải pháp. Đây là một cuốn sách lạc quan, cố gắng chứng minh rằng chúng ta có thể nắm lấy tay lái, định hướng tương lai theo chiều hướng tốt đẹp, nhưng chỉ khi chúng ta cùng nhau hiểu rõ bản chất của vấn đề và tìm kiếm những giải pháp để phát triển AI một cách có trách nhiệm. Chỉ đơn giản ước nguyện những hiểm họa biến mất sẽ vô hiệu nếu ta không biết cách tránh chúng, và đó chính là trọng tâm của cuốn sách xuất sắc này. Tác giả tiếp cận vấn đề với tư duy của một nhà vật lý: lý trí, cân nhắc, thận trọng và đa phần là vô tư. Khác với những cuốn sách cùng thể loại, ông không đặt cược vào một kịch bản cụ thể. Thay vào đó, ông cố gắng khám phá mọi giả thuyết được đưa ra, đánh giá tính khả thi và nhất quán của chúng. Ngay cả khi đối mặt với những chủ đề gây tranh cãi như ý thức hay tự do ý chí, ông vẫn xuất sắc trong việc trình bày đầy đủ các quan điểm khác nhau, rồi dần dần phân tích chúng dựa trên các định luật vật lý cơ bản. Đây là lần đầu tiên tôi thấy ai đó nói về vấn đề khổng lồ này không chỉ như một mối đe dọa, mà như một bài toán có lời giải. Tác giả tiếp cận nó như một nhà hoạt động – đầy nhiệt huyết và niềm tin. Ông đã sử dụng logic thuyết phục và lòng đam mê để thành lập một tổ chức khoa học đáng gờm, đồng thời gây dựng một quỹ nghiên cứu lớn mạnh nhờ sự hỗ trợ tài chính từ các nguồn đáng kể.Cuốn sách "Sự sống 3.0: Là con người trong thời đại AI" không chỉ là một tác phẩm nghiên cứu, mà còn là một lời kêu gọi hành động, một bản thiết kế cho tương lai mà chúng ta cùng nhau xây dựng.