Đồng sáng lập Ethereum, Vitalik Buterin, đã cảnh báo về những rủi ro liên quan đến AI siêu thông minh và sự cần thiết của một cơ chế phòng thủ mạnh mẽ.
Những bình luận của Buterin xuất hiện trong bối cảnh sự phát triển nhanh chóng của trí tuệ nhân tạo, lo ngại về an toàn AI đã tăng lên đáng kể.
Kế hoạch điều chỉnh AI của Buterin
Trong một bài viết trên blog ngày 05/01, Vitalik Buterin đã trình bày ý tưởng của mình về ‘d/acc hay tăng tốc phòng thủ’, nơi công nghệ nên được phát triển để bảo vệ thay vì gây hại. Tuy nhiên, đây không phải là lần đầu tiên Buterin nói về những rủi ro liên quan đến trí tuệ nhân tạo.
“Một cách mà AI có thể làm sai và khiến thế giới tồi tệ hơn là (gần như) cách tồi tệ nhất có thể: nó có thể thực sự gây ra sự tuyệt chủng của loài người,”
Buterin nói vào năm 2023.
Buterin hiện đã tiếp tục theo đuổi các lý thuyết của mình từ năm 2023. Theo Buterin, siêu trí tuệ có thể chỉ còn vài năm nữa là tồn tại.
“Có vẻ như chúng ta có khoảng ba năm cho đến khi có AGI và thêm ba năm nữa cho đến khi có siêu trí tuệ. Và vì vậy, nếu chúng ta không muốn thế giới bị hủy diệt hoặc rơi vào một cái bẫy không thể đảo ngược, chúng ta không chỉ cần tăng tốc điều tốt mà còn phải làm chậm điều xấu,”
Buterin viết.
Để giảm thiểu rủi ro liên quan đến AI, Buterin ủng hộ việc tạo ra các hệ thống AI phi tập trung gắn kết chặt chẽ với quyết định của con người. Bằng cách đảm bảo rằng AI vẫn là công cụ trong tay con người, mối đe dọa từ các kết quả thảm khốc có thể được giảm thiểu.
Buterin sau đó giải thích cách quân đội có thể là những tác nhân chịu trách nhiệm cho kịch bản ‘AI diệt vong’. Việc sử dụng AI trong quân sự đang gia tăng trên toàn cầu, như đã thấy ở Ukraine và Gaza. Buterin cũng tin rằng bất kỳ quy định AI nào có hiệu lực có thể sẽ miễn trừ cho quân đội, điều này khiến họ trở thành mối đe dọa đáng kể.
Đồng sáng lập Ethereum cũng đã trình bày kế hoạch của mình để điều chỉnh việc sử dụng AI. Anh nói rằng bước đầu tiên để tránh rủi ro liên quan đến AI là làm cho người dùng chịu trách nhiệm.
“Mặc dù mối liên hệ giữa cách một mô hình được phát triển và cách nó được sử dụng thường không rõ ràng, người dùng quyết định chính xác cách AI được sử dụng,”
Buterin giải thích, nhấn mạnh vai trò của người dùng.
Nếu các quy tắc trách nhiệm không hiệu quả, bước tiếp theo sẽ là thực hiện các nút “tạm dừng mềm” cho phép điều chỉnh AI để làm chậm tốc độ của các tiến bộ có thể gây nguy hiểm.
“Mục tiêu sẽ là có khả năng giảm khả năng tính toán có sẵn trên toàn thế giới khoảng 90-99% trong 1-2 năm vào một giai đoạn quan trọng, để mua thêm thời gian cho nhân loại chuẩn bị.”
Anh nói rằng việc tạm dừng có thể được thực hiện thông qua xác minh và đăng ký vị trí AI.
Một cách tiếp cận khác là kiểm soát phần cứng AI. Buterin giải thích rằng phần cứng AI có thể được trang bị một con chip để kiểm soát nó. Con chip sẽ cho phép các hệ thống AI hoạt động chỉ khi chúng nhận được ba chữ ký từ các tổ chức quốc tế hàng tuần. Anh bổ sung thêm rằng ít nhất một trong các tổ chức này nên không liên quan đến quân sự. Tuy nhiên, Buterin thừa nhận rằng các chiến lược của anh có lỗ hổng và chỉ là ‘giải pháp tạm thời’.
Tham gia Cộng đồng BeInCrypto trên Telegram để cập nhật các bài phân tích, tin tức mới nhất về thị trường tài chính nói chung và tiền tiền đử nói riêng nhé.
Tất cả thông tin có trên trang web của chúng tôi được xuất bản với thiện chí và chỉ dành cho mục đích thông tin chung. Bất kỳ hành động nào người đọc thực hiện đối với thông tin được tìm thấy trên trang web của chúng tôi, họ cần phải đánh giá lại và hoàn toàn chịu rủi ro từ quyết định của chính họ.