Thứ Năm, 15 tháng 8, 2024

Nhân loại có thể sống sót trong 100 năm tới không?

 Project Syndicate | Aug 7, 2024PETER SINGER

Khủng hoảng hiện sinh là rủi ro có thể hủy diệt sự sống thông minh có nguồn gốc từ Trái đất hoặc hạn chế vĩnh viễn và triệt để tiềm năng của nó. Hầu hết trong số chúng - chẳng hạn như khủng bố sinh học hoặc biến đổi khí hậu - do con người tạo ra và không được chính phủ đối xử với bất kỳ sự nghiêm túc hoặc cấp bách nào mà chúng đáng được hưởng.

MELBOURNE – Vào tháng 5, các chuyên gia từ nhiều lĩnh vực đã tụ họp tại Montenegro để thảo luận về "Các mối đe dọa hiện sinh và các thảm họa khác: Chúng ta nên giải quyết chúng như thế nào". Thuật ngữ "khủng hoảng hiện sinh" đã được phổ biến trong một bài luận năm 2002 của nhà triết học Nick Bostrom, người đã định nghĩa nó là đề cập đến những rủi ro theo đó "một kết quả bất lợi sẽ tiêu diệt sự sống thông minh có nguồn gốc từ Trái đất hoặc hạn chế vĩnh viễn và nghiêm trọng tiềm năng của nó".

Để đánh giá sự khác biệt giữa rủi ro hiện sinh và các thảm họa khác, hãy xem xét biến đổi khí hậu. Trong một số trường hợp, sự nóng lên toàn cầu mất kiểm soát có thể khiến hầu hết Trái đất trở nên quá nóng để con người có thể tiếp tục sống ở đó, nhưng Nam Cực và một số vùng cực bắc của Châu Âu, Châu Á và Bắc Mỹ sẽ trở nên không thể sinh sống được.

Điều đó sẽ làm giảm tiềm năng của sự sống thông minh trên Trái đất, có lẽ trong hàng thiên niên kỷ, nhưng cuối cùng hành tinh sẽ nguội đi và con cháu của những người sống sót sẽ tái tạo dân số. Nếu đây thực sự là những kịch bản tồi tệ nhất, thì biến đổi khí hậu, thảm khốc như nó có thể, không phải là một rủi ro hiện sinh. 

Chắc chắn, nếu mức độ nghiêm trọng của một thảm họa tỷ lệ thuận với số người mà nó giết chết, thì sự khác biệt giữa một thảm họa giết chết gần như toàn bộ dân số loài người trên Trái đất và một thảm họa gây ra sự tuyệt chủng của nó sẽ không quá lớn. Tuy nhiên, đối với nhiều nhà triết học quan tâm đến rủi ro hiện sinh, quan điểm này không xem xét đến số lượng lớn những người sẽ xuất hiện nếu loài người của chúng ta tồn tại trong một thời gian dài, nhưng sẽ không nếu Homo sapiens bị tuyệt chủng.

Hội nghị Montenegro, khi đề cập đến "các thảm họa khác" trong tiêu đề, không chỉ giới hạn ở những rủi ro hiện sinh, mà phần lớn cuộc thảo luận là về chúng. Khi phiên họp cuối cùng của hội nghị sắp kết thúc, một số người có mặt cảm thấy rằng các vấn đề chúng tôi đã thảo luận rất nghiêm trọng, nhưng lại bị bỏ qua, đến mức chúng tôi phải tìm cách thu hút sự chú ý của công chúng và sự chú ý của các chính phủ vào chủ đề này. Nội dung chung của một tuyên bố như vậy đã được thảo luận, và tôi là thành viên của một nhóm nhỏ được đề cử để soạn thảo nó.

Tuyên bố lưu ý rằng có những rủi ro nghiêm trọng đối với sự tồn vong của loài người, hầu hết trong số chúng do con người tạo ra, dù là cố ý, như khủng bố sinh học, hay vô tình, như biến đổi khí hậu hoặc rủi ro do việc tạo ra siêu trí tuệ nhân tạo không phù hợp với các giá trị của chúng ta. Tuyên bố tiếp tục nói rằng những rủi ro này không được các chính phủ đối xử với bất kỳ mức độ nghiêm trọng hoặc cấp bách nào mà chúng đáng được hưởng.

Tuyên bố này ủng hộ quan điểm của mình bằng cách tham chiếu đến hai tuyên bố do Toby Ord đưa ra trong cuốn sách The Precipice năm 2020 của ông. Ord ước tính khả năng loài của chúng ta bị tuyệt chủng trong 100 năm tới là 16-17%. Ông cũng ước tính rằng tỷ lệ GDP thế giới mà nhân loại chi cho các biện pháp can thiệp nhằm giảm thiểu rủi ro này là dưới 0,001%.

Trong bản cập nhật xuất hiện vào tháng 7, Ord cho biết vì bằng chứng mới cho thấy các kịch bản biến đổi khí hậu cực đoan nhất là không có khả năng xảy ra nên rủi ro hiện hữu do biến đổi khí hậu gây ra thấp hơn so với những gì ông nghĩ vào năm 2020. Mặt khác, chiến tranh ở Ukraine có nghĩa là rủi ro xảy ra chiến tranh hạt nhân gây ra sự tuyệt chủng của chúng ta cao hơn, trong khi rủi ro từ AI siêu thông minh và đại dịch, theo quan điểm của ông, thấp hơn ở một số khía cạnh và cao hơn ở những khía cạnh khác.

Ord cho rằng việc tập trung vào chatbot là đưa AI theo hướng ít nguy hiểm hơn, vì chatbot không phải là tác nhân. Nhưng ông cho rằng sự cạnh tranh ngày càng tăng trong cuộc đua tạo ra trí thông minh nhân tạo tiên tiến có thể dẫn đến việc cắt giảm các góc cạnh về an toàn AI.

Nhìn chung, Ord không thay đổi ước tính của mình – mà ông thừa nhận là rất sơ sài – rằng có một trong sáu khả năng loài người chúng ta sẽ không tồn tại được trong 100 năm tới. Ông hoan nghênh thực tế là hiện nay có sự quan tâm ngày càng tăng trên toàn cầu trong việc giảm thiểu rủi ro tuyệt chủng và đưa ra ví dụ, việc đưa chủ đề này vào báo cáo năm 2021 của Tổng thư ký Liên hợp quốc và sự nổi bật của chủ đề này trong chương trình nghị sự của nhóm các cựu lãnh đạo thế giới quốc tế được gọi là The Elders.

Tuyên bố của Montenegro thúc giục các chính phủ hợp tác để ngăn chặn các thảm họa hiện hữu và đặc biệt kêu gọi chính phủ các nước giàu đầu tư "nguồn lực đáng kể" vào việc tìm ra những cách tốt nhất để giảm thiểu rủi ro tuyệt chủng của loài người. Mặc dù tuyên bố không nêu rõ "đáng kể" có nghĩa là gì trong bối cảnh này, Ord đã đề xuất ở nơi khác về cam kết 1% GDP toàn cầu để giảm thiểu rủi ro tuyệt chủng của loài người. Con số này cao hơn gấp nghìn lần so với ước tính năm 2020 của ông về số tiền mà các chính phủ đã chi cho nhiệm vụ này, nhưng sẽ khó có thể lập luận rằng con số đó là quá nhiều.

Peter Singer, Người sáng lập tổ chức phi lợi nhuận The Life You Can Save, là Giáo sư danh dự về Đạo đức sinh học tại Đại học Princeton.


Không có nhận xét nào:

Đăng nhận xét