Tác giả: Simon Book, René Pfister, Marcel Rosenbach – DER SPIEGEL, Số: 10/2026.
Biên dịch: Tôn Thất Thông
Trên nhiều khía cạnh, sự trỗi dậy của A.I. còn đáng đe dọa hơn việc phát minh ra bom nguyên tử. Nó khiến việc giết chóc trong chiến tranh nhanh hơn và việc chế tạo vũ khí hủy diệt hàng loạt dễ dàng hơn. Sự thành công của Ukraine trong công nghệ Drone chỉ là thí dụ đầu tiên. Con người tạo ra một công nghệ mới mà không ai chế ngự được. Chuyên gia cảnh báo về vũ khí có trí tuệ nhân tạo hỗ trợ, và đòi hỏi những quy trình kiểm soát chặt chẽ. Liệu nhân loại có thành công trong việc thiết lập một bộ quy tắc ứng xử hiệu quả?
Vào tháng 11 năm 2017, một bộ phim kinh dị dài tám phút đã gây bão trên mạng. »Slaughterbots« – Những robot giết người – là một câu chuyện viễn tưởng đen tối, trong đó các thiết bị sát thương không người lái được trang bị phần mềm nhận diện khuôn mặt đã xâm nhập vào Quốc hội Mỹ và các trường đại học để tiêu diệt có mục tiêu các nghị sĩ và sinh viên đấu tranh chống tham nhũng. Trong phim, không rõ ai đứng sau các vụ tấn công: một chính phủ, một nhóm khủng bố – hay một xưởng vũ khí cực kỳ hiện đại chuyên sản xuất các loại vũ khí mới có sự hỗ trợ AI, với một ông chủ trẻ trung, đầy sức hút đang quảng bá drone giết người tự động là tương lai của chiến tranh?
»Slaughterbots« được quay như một lời cảnh báo. Ở cuối phim, một trong những tác giả đã lên tiếng: nhà khoa học máy tính người Anh Stuart Russell. Ông nói rằng đoạn clip cho thấy mối nguy hiểm khi A.I kết hợp với các hệ thống vũ khí thế hệ mới – và khi máy móc nắm quyền quyết định sự sống và cái chết. Russell là một trong những nhà nghiên cứu A.I hàng đầu thế giới. Ông khẳng định: »Chúng ta vẫn còn cơ hội để ngăn chặn viễn cảnh mà các bạn vừa thấy. Nhưng khung thời gian để chúng ta hành động đang khép lại rất nhanh.«
Khi »Slaughterbots« ra mắt, bộ phim bị chỉ trích là sản phẩm khoa học viễn tưởng thái quá của những người bi quan về công nghệ mới. Paul Scharre, một cựu phân tích viên của Lầu Năm Góc, đã gọi đó là một tập hợp những điều nhảm nhí: »Nó chỉ nhằm gây sốc và gieo rắc sợ hãi.«
A.I. rút ngắn »chuỗi tiêu diệt« (Kill-Chain)
Ngày nay, drone đã thay đổi hoàn toàn cách thức tiến hành chiến tranh. Tại Ukraine, drone hiện đang thống trị chiến trường, ghi lại mọi chuyển động của quân đội và lao vào bất cứ thứ gì đang di động: binh lính, xe tăng, xe vận tải. Có những ước tính cho rằng hiện nay hơn 90% binh lính Nga thiệt mạng trên chiến trường là do drone của Ukraine.
Hiếm có lĩnh vực nào trong ngành công nghiệp quốc phòng phát triển nhanh chóng như kinh doanh các hệ thống không người lái, nơi kỹ thuật vũ khí hiện đại kết hợp với trí tuệ nhân tạo. Công ty Helsing của Đức, mới thành lập năm 2021, hiện đã có giá trị 12 tỷ Euro. Shield A.I từ San Diego đang trong quá trình huy động hơn một tỷ đô la vốn đầu tư. Với Palantir, một gã khổng lồ phần mềm kiểu “Orwell” đã xuất hiện, với các sản phẩm được cho là có khả năng phân biệt bạn và thù nhờ A.I – và CEO Alexander Karp của công ty này nói chuyện bằng sự pha trộn giữa tư duy cứu thế và sự tàn bạo, giống hệt ông chủ của công ty drone hư cấu trong »Slaughterbots«. Karp nói: »Kẻ thù của chúng ta phải thức dậy trong sợ hãi và đi ngủ trong sợ hãi.«
Nhưng trí tuệ nhân tạo trong vũ khí không chỉ dùng để xác định kẻ thù và tiêu diệt nhanh chóng – tức là rút ngắn »chuỗi tiêu diệt« (kill-chain), vốn dĩ đang bị kéo dài bởi những thiếu sót và sự đắn đo của con người. Nhiều bằng chứng cho thấy AI sẽ thay đổi công nghệ quân sự một cách triệt để đến mức các quy tắc truyền thống về quyền lực và răn đe sẽ bị lung lay.
Các nhà phát triển hàng đầu cảnh báo về việc mất kiểm soát
Tàu sân bay còn giá trị gì nếu các phi đội drone tự động giá rẻ, vốn rất khó bị hệ thống phòng không ngăn chặn, có thể đánh chìm cả hạm đội? Quân số của một quân đội còn ý nghĩa gì khi drone kiểm soát chiến trường đến mức việc đặt chân vào đó là ký tên vào một bản án tử hình? Và sự răn đe hạt nhân sẽ đáng sợ đến mức nào nếu A.I có thể phát triển các vũ khí sinh học có khả năng lây nhiễm cực cao để xóa sổ đối phương?
Nhìn lại thế kỷ trước, có vẻ như một phép màu khi nhân loại đã sống sót sau sự ra đời của bom nguyên tử vào giữa những năm 1940 và cuộc Chiến tranh Lạnh sau đó. Năm 1955, Albert Einstein đã ký một bản tuyên ngôn của triết gia người Anh Bertrand Russell, kêu gọi các cường quốc hạt nhân Mỹ và Liên Xô gạt bỏ sự thù địch. »Trước mắt chúng ta, nếu chúng ta chọn đúng, là sự mở rộng không ngừng của hạnh phúc, tri thức và trí tuệ. Liệu chúng ta có chọn cái chết thay vào đó, chỉ vì chúng ta không thể quên đi những tranh chấp của mình?«
Thế giới đang đứng trước một lựa chọn tương tự vào đêm trước của kỷ nguyên siêu trí tuệ nhân tạo: Liệu chúng ta có thể đưa công nghệ mới vào phục vụ nhân loại để chữa trị các căn bệnh hiểm nghèo như ung thư hay Alzheimer? Hay một cuộc chạy đua vũ trang kỹ thuật số đang chờ đợi chúng ta, mà ở cuối con đường đó, máy móc sẽ chiến thắng?
Thế giới có lẽ đã không rơi vào thảm họa hạt nhân Armageddon [*] trong cuộc khủng hoảng tên lửa Cuba năm 1962 chủ yếu nhờ vào một chút may mắn bất ngờ. Điều gì sẽ xảy ra nếu một chỉ huy tàu ngầm Liên Xô mất bình tĩnh trong cuộc phong tỏa của Mỹ tại đảo quốc vùng Caribe và phóng một ngư lôi hạt nhân vào tàu chiến Mỹ? Liệu Washington, Paris và Moscow có còn tồn tại đến ngày nay nếu một trung tá tên là Stanislav Petrov không giữ được bình tĩnh khi hệ thống cảnh báo sớm của Liên Xô nhầm lẫn phản xạ ánh sáng với việc Mỹ phóng tên lửa hạt nhân vào tháng 9 năm 1983?
Người ta không cần phải là kẻ tin vào ngày tận thế mới đặt ra câu hỏi liệu kỷ nguyên A.I có nguy hiểm hơn nhiều so với Chiến tranh Lạnh hay không – một thời đại mà việc chế tạo vũ khí hủy diệt hàng loạt trở nên dễ dàng hơn, đồng thời các quyết định quân sự ngày càng được đưa ra bởi máy móc, những thứ có thể tự phát triển cuộc sống riêng trong tương lai gần.
»Nếu chúng ta tiếp tục như thế này, A.I có thể trở nên quyền năng hơn cả chính chúng ta,« nhà khoa học người Canada Yoshua Bengio, người đã nhận giải Turing năm 2018 (được coi là “giải Nobel về tin học”), cho biết. Ông chia sẻ với SPIEGEL rằng ông thấy tương lai của con cái mình bị đe dọa và cảnh báo về một sự »mất kiểm soát«. Dario Amodei, người đứng đầu gã khổng lồ A.I Anthropic, đã xuất bản một bài tiểu luận vào cuối tháng giêng, trong đó ông dùng những lời lẽ khẩn thiết cảnh báo về một công nghệ có tiềm năng gây ra thảm họa Armageddon toàn cầu: »Nhân loại cần phải thức tỉnh.«
Tại Thung lũng Silicon, người ta thường coi những kịch bản hủy diệt như vậy là một kiểu »quảng cáo cho ngày tận thế« cực kỳ khéo léo của các ông chủ A.I như Amodei hay CEO Sam Altman của OpenAI. Lập luận là, nếu A.I có sức mạnh xóa sổ toàn bộ nhân loại, chẳng phải nó cũng có tiềm năng cách mạng hóa nền kinh tế toàn cầu hay sao? Và chẳng phải khi đó đầu tư vào nó là điều nên làm? Vấn đề của lập luận này là: không chỉ các tỷ phú như Amodei cảnh báo về những nguy cơ sinh tồn của AI, mà cả những nhà nghiên cứu A.I như Bengio, Geoffrey Hinton hay Nate Soares – những người không còn (hoặc chưa từng) phục vụ các công ty công nghệ – cũng lên tiếng.
Amodei nói rằng có 25% khả năng A.I sẽ xóa sổ nhân loại. Hinton, một trong những người tiên phong của công nghệ mới, nói về con số 10 đến 20%. Soares, người từng làm việc cho Google và Microsoft và hiện là chủ tịch một tổ chức tư vấn nghiên cứu các mối nguy hiểm của A.I tại Berkeley, California, nói: »Ngay cả khi nguy cơ chỉ là hai phần trăm, liệu bạn có để hàng chục ngàn chiếc xe chạy qua một cây cầu mỗi ngày nếu các kỹ sư định lượng nguy cơ nó sụp đổ là hai phần trăm không?«
Robot và Drone: A.I. hòa quyện vào vũ khí tương lai
Để thấy A.I có thể trở nên nguy hiểm thế nào, hãy nhìn vào các chiến trường hiện tại. Vào tháng 8 năm 2024, người Ukraine lần đầu tiên sử dụng một loại drone mới của nhà sản xuất Mỹ Shield A.I trong cuộc chiến chống lại Nga. Thiết bị bay mang tên »V-Bat« có khả năng thực hiện nhiệm vụ hoàn toàn tự động và không cần liên lạc với căn cứ. Được điều khiển bởi AI, drone này đã thâm nhập sâu 100 km vào lãnh thổ đối phương và định vị các vị trí của quân thù, trong đó có một hệ thống phòng không. Với các tọa độ đó, người Ukraine có thể cung cấp dữ liệu cho một đơn vị tên lửa di động và gây ra tổn thất nặng nề cho quân Nga.
Trong trường hợp này, công nghệ mới đã giúp ích cho một quốc gia đang bị tấn công. Nhưng trong cuộc chiến drone được A.I hỗ trợ, quyết định về sự sống và cái chết được đưa ra trong một phần nghìn giây, bất kể từ phe nào. Ngay từ bây giờ, Kyiv đã sản xuất hàng triệu drone để sử dụng. Theo số liệu của Ukraine, chỉ riêng trong tháng giêng, drone đã tiêu diệt hơn 29.000 binh lính Nga. Thường thì đó vẫn là những drone cảm tử đơn giản lao vào binh lính Nga. Nhưng hiện tại, những chiếc drone có kích thước bằng máy bay cũng đang được lên kế hoạch cho cuộc chiến ở Ukraine, được sản xuất cách Kyiv hàng ngàn km.
Trong một nhà xưởng màu xám không cửa sổ ở Frisco, Texas, Shield A.I cho đến nay vẫn sản xuất các thiết bị bay tự động của mình. Rất có khả năng thế hệ mới nhất, »X-Bat«, cũng được sản xuất tại đây. Đó là một chiếc máy bay chiến đấu mini tự động được trang bị A.I cao cấp, bay không cần phi công, cũng không cần GPS và radar. Điều này nhằm ngăn chặn các thiết bị gây nhiễu làm nó rơi.
Chiếc drone có thể cất cánh thẳng đứng và bay cao hơn 15.000 mét. Nó có tầm hoạt động 3.700 km và tự tìm kiếm mục tiêu để tiêu diệt bằng tên lửa mang theo. Shield A.I gọi công nghệ A.I mang tính cách mạng đằng sau đó là »Hivemind« (Trí tuệ bầy đàn tự học). James Lythgoe, một cựu binh sĩ đặc nhiệm Anh, người hiện đang điều hành mảng kinh doanh tại Đông Âu của Shield AI, cho biết: »Nó sẽ thay đổi hoàn toàn cách thế giới tiến hành chiến tranh với nhau.«
Các công ty A.I lập luận rằng sản phẩm của họ làm cho chiến tranh trở nên nhân đạo hơn vì vũ khí của họ chính xác hơn và tránh được các thiệt hại ngoài dự kiến. Gundbert Scherf, đồng sáng lập Helsing, nói rằng A.I tự động hóa việc trinh sát: »Binh lính không còn phải phân tích từng hình ảnh một. Cuối cùng, điều đó cho phép có nhiều thời gian hơn cho các quyết định của con người.« Ngược lại, pháo binh truyền thống phần lớn bắn một cách »mù quáng«.
Nhưng drone cũng là loại vũ khí cực kỳ rẻ. Điều gì sẽ xảy ra nếu chính quyền Bắc Kinh quyết định không đánh chiếm đảo Đài Loan bằng tàu thuyền và lính nhảy dù, mà tấn công bằng drone điều khiển bởi A.I cho đến khi hòn đảo này kiệt quệ? Và điều gì sẽ xảy ra nếu một chế độ độc tài phân tích các kiểu hành vi của người dân để lập danh sách các đối thủ tiềm năng của chế độ?
»Thế giới phải nhận thức được mặt tối của A.I quyền năng trong tay những kẻ độc tài,« CEO Amodei của Anthropic viết. »Họ phải nhận ra rằng A.I mở ra khả năng tước đoạt tự do của con người vĩnh viễn và áp đặt một nhà nước toàn trị lên họ.«
Hiếm có quốc gia nào tiến xa trong việc kết hợp robot và A.I như Trung Quốc. Vào tháng 5 năm 2024, quân đội nước này lần đầu tiên trình diễn một robot giết người bốn chân có gắn súng liên thanh trên lưng trong một cuộc diễn tập chung với Campuchia. Tại cuộc diễn tập mang tên »Rồng Vàng« này, một chiếc drone sáu cánh quạt (hexacopter) cũng được sử dụng để bắn phá các mục tiêu trên mặt đất.
Nga, Iran và các nước khác hưởng lợi từ Deepseek như thế nào
Trong việc sản xuất drone, Trung Quốc đang bỏ xa Mỹ và châu Âu. Công ty DJI có trụ sở tại Thẩm Quyến đã dẫn đầu thế giới về drone dân dụng trong khoảng một thập kỷ qua, thị phần của họ trong một số phân khúc lên tới 90%. Trung Quốc thường xuyên phô diễn lợi thế này, ví dụ như qua những màn trình diễn ánh sáng ngoạn mục của các bầy đàn drone khổng lồ được điều phối nhịp nhàng, như tại Trùng Khánh cuối tháng 12 vừa qua. Đó là một hình ảnh ngoạn mục.
Nhưng các bầy đàn drone cũng có thể được sử dụng vào mục đích quân sự. Tập đoàn nhà nước Avic của Trung Quốc đã phát triển một “tàu mẹ” có khả năng vận chuyển tới 100 drone bầy đàn nhỏ đi xa tối đa 7.000 km đến các địa điểm tác chiến. Nó có sải cánh hơn 25 mét, mang tên »Jiutian« (Cửu Thiên – Bầu trời cao) và đã cất cánh lần đầu tiên tại tỉnh Thiểm Tây vào năm ngoái.
Hiện tại, Mỹ vẫn tự trấn an với ý nghĩ rằng họ đang dẫn trước Trung Quốc trong việc phát triển AI. Tuy nhiên, nếu quan sát kỹ, sự thống trị của Mỹ chỉ ở mức không đáng kể. Vào tháng 1 năm 2025, phòng thí nghiệm nghiên cứu Deepseek tại Hàng Châu đã công bố một mô hình A.I cùng tên. Nó có hiệu năng tương tự các mô hình của OpenAI và Anthropic nhưng chỉ tốn một phần nhỏ chi phí phát triển. Vì Deepseek cung cấp mô hình của mình miễn phí, nó đã cho phép các chế độ như Nga, Iran, Cuba và Belarus hưởng lợi từ cuộc cách mạng AI. Theo một nghiên cứu gần đây của Microsoft, tất cả các nước này đang tăng cường sử dụng Deepseek. Phiên bản tiếp theo, quyền năng hơn nữa của mô hình này dự kiến sẽ sớm được công bố.
Một sự »leo thang đáng kể« trong các cuộc tấn công mạng
Những thành công về A.I của Trung Quốc không phải ngẫu nhiên. Ngay từ năm 2017, Đảng Cộng sản Trung Quốc đã công bố mục tiêu thu hẹp khoảng cách với Mỹ và trở thành cường quốc lãnh đạo A.I toàn cầu vào năm 2030. Đó cũng là năm mà Tổng thống Nga Vladimir Putin tuyên bố: »Ai dẫn đầu trong lĩnh vực này sẽ là người cai trị thế giới.«
Kể từ đó, cuộc chạy đua vũ trang cho việc ứng dụng quân sự các công nghệ mới đã bắt đầu. Và Trung Quốc đang tận dụng thế mạnh của mình. Mỹ có thể dẫn trước về phát triển các mô hình AI, nhưng Antonia Hmaidi từ tổ chức tư vấn Merics tại Berlin cho rằng Trung Quốc đang theo đuổi một cách tiếp cận rộng hơn và tích hợp A.I một cách điêu luyện vào drone và robot. »Nhà nước Trung Quốc coi A.I là cơ hội để xây dựng các lợi thế bất đối xứng đối với Mỹ.«
Trung Quốc cũng vừa trình diễn khả năng về robot hình người trong một chương trình chào mừng Tết Nguyên đán tuần trước: những “người sắt” cực kỳ linh hoạt thực hiện các động tác Kung-Fu mượt mà và nhào lộn tại chỗ. Theo Hmaidi, một số người trong quân đội và trong Đảng coi robot chiến đấu là cơ hội để bù đắp sự thiếu hụt nhân lực trẻ trong quân đội Trung Quốc tương lai.
Colin Kahl, Giám đốc Viện Freeman Spogli tại Đại học Stanford, cũng tin rằng Mỹ đã quá tự mãn trong ảo tưởng về sự thống trị công nghệ. Theo Kahl – người từng là Thứ trưởng Bộ Quốc phòng dưới thời Tổng thống Joe Biden – các mô hình A.I của Trung Quốc hiện nay đã có hiệu năng đáng kinh ngạc và theo sát tiến bộ kỹ thuật rất nhanh. Và Trung Quốc giỏi hơn nhiều trong việc chuyển đổi công nghệ mới thành các ứng dụng trong nghiên cứu và công nghiệp. »Khi nói đến trình độ chế tạo một chiếc drone có A.I hỗ trợ, một robot hay một con tàu, Trung Quốc chắc chắn đang dẫn đầu,« Kahl nói trong một cuộc gọi video từ văn phòng của mình ở California.
Bắc Kinh hiện có vẻ không ngần ngại sử dụng A.I của Mỹ để phá hoại cơ sở hạ tầng kỹ thuật số phương Tây. Vào tháng 9 năm ngoái, công ty A.I Anthropic đã nhận thấy mô hình ngôn ngữ Claude của họ bị lạm dụng cho các cuộc tấn công mạng; khoảng 30 mục tiêu quốc tế đã bị tấn công, bao gồm các nhà cung cấp dịch vụ tài chính và các cơ quan chính phủ. Có tới 90% các tác vụ được thực hiện tự động hóa cao và không cần sự can thiệp của con người, điều này đại diện cho một »sự leo thang đáng kể« so với tất cả các cuộc tấn công mạng được A.I hỗ trợ được biết đến từ trước đến nay, Anthropic cho biết trong một thông cáo. Đây là trường hợp đầu tiên được ghi nhận về »một cuộc tấn công mạng được thực hiện phần lớn không có sự can thiệp của con người và ở quy mô lớn«.
Thế giới vì thế sẽ trải qua một »số lượng khổng lồ« các cuộc tấn công mạng cực kỳ nguy hiểm, cựu CEO Google và tỷ phú công nghệ Eric Schmidt đã cảnh báo gần đây tại Hội nghị An ninh Munich. Ngay cả bản thân các mô hình A.I cũng có những lỗ hổng và có thể bị thao túng. Các chuyên gia an ninh mạng quan sát thấy rằng các tác nhân nhà nước từ Nga hay Triều Tiên đã sử dụng các công cụ A.I trong các cuộc tấn công.
Nhiều cơ sở hạ tầng trọng yếu vốn đã được bảo vệ kém trước các cuộc tấn công mạng truyền thống. Liệu chúng có thể chống chịu được các cuộc tấn công được A.I hỗ trợ không? »AI tạo sinh làm giảm rào cản gia nhập và tăng quy mô, tốc độ cũng như sức công phá của các hành động phá hoại,« Văn phòng Liên bang về An ninh Thông tin Đức (Sicherheit in der Informationstechnik) cảnh báo. Các chuyên gia dự báo về các làn sóng tấn công hoàn toàn tự động với các phần mềm độc hại liên tục thay đổi.
Ví dụ hiện tại về OpenClaw cho thấy mọi thứ có thể mất kiểm soát dễ dàng thế nào trong kỷ nguyên AI. Phần mềm mã nguồn mở cho trợ lý A.I do một người Áo khởi xướng đã lan truyền với tốc độ kỷ lục. Nhiều người đã cấp quyền truy cập rộng rãi vào thiết bị và dịch vụ của họ cho trợ lý A.I mới, mặc dù chính người tạo ra nó đã cảnh báo: »Một câu lệnh (prompt) tồi có thể khiến nó thực hiện những điều không an toàn.« Công ty tư vấn Gartner gọi đây là một »nguy cơ không thể chấp nhận được đối với an ninh mạng« và là một »điềm báo nguy hiểm« cho những rủi ro mới của A.I có tính tác nhân (agentic AI).
»Cỗ máy ngày tận thế«: A.I. có thể chống lại những người tạo ra nó như thế nào
Mối nguy hiểm của A.I nằm ở chỗ nó loại bỏ yếu tố con người. Con người bắt đầu chiến tranh nhưng cũng cảm nhận được hậu quả của chúng: thành phố bị phá hủy, chồng và con trai tử trận, trẻ em và người già thiệt mạng vì bom đạn. Giữa những năm 1980, Mỹ và Liên Xô sở hữu tổng cộng hơn 60.000 đầu đạn hạt nhân. Nhưng sự đảm bảo lẫn nhau chống hủy diệt đã khiến các siêu cường không bao giờ dám tiến tới một cuộc xung đột trực diện. Họ chiến đấu qua các cuộc chiến ủy nhiệm ở Triều Tiên, Việt Nam và Afghanistan, nhưng chưa bao giờ bước qua ranh giới của xung đột hạt nhân.
Điều đó còn đúng không? Danh sách các cường quốc hạt nhân đã tăng thêm ba nước kể từ năm 1989: Ấn Độ, Pakistan và Triều Tiên. Trung Quốc mỗi năm bổ sung thêm khoảng 100 đầu đạn vào kho hạt nhân của mình, và Nga đã nhiều lần đe dọa sử dụng vũ khí hạt nhân trong cuộc chiến với Ukraine. Đồng thời, A.I rút ngắn quá trình ra quyết định quân sự một cách chóng mặt đến mức người ta lo ngại rằng máy móc có thể đẩy thế giới vào thảm họa hạt nhân Armageddon [*].
Đó là những kịch bản mà trước đây người ta chỉ thấy trong phim khoa học giả tưởng. Trong phim »War Games« năm 1983, một học sinh trung học Mỹ đã hack vào một siêu máy tính và suýt chút nữa gây ra Thế chiến III vì máy móc không biết phân biệt giữa trò chơi và thực tế. Trong bộ phim thành công vang dội »Terminator« của James Cameron, một siêu trí tuệ nhân tạo mang tên »Skynet« đã phát triển ý thức riêng. Khi điều này bị phát hiện và người ta định tắt »Skynet«, nó đã khởi động một cuộc tấn công hạt nhân xóa sổ phần lớn nhân loại.
Người ta có thể coi đó là những câu chuyện viễn tưởng đen tối của Hollywood. Nhưng nỗi sợ về một cỗ máy đẩy thế giới xuống vực thẳm đã lớn đến mức vào cuối nhiệm kỳ của Joe Biden, nó đã trở thành chủ đề thảo luận giữa Washington và Bắc Kinh. Trong cuộc gặp cuối cùng, Biden và nhà lãnh đạo Trung Quốc Tập Cận Bình đã đồng ý rằng cả hai cường quốc hạt nhân sẽ không để bất kỳ công nghệ A.I nào đưa ra quyết định cuối cùng về việc sử dụng vũ khí hạt nhân.
»Hai nhà lãnh đạo khẳng định nhu cầu kiểm soát của con người đối với quyết định sử dụng vũ khí nguyên tử,« thông cáo báo chí của Nhà Trắng viết. Đó là một câu nói mà sự nghiêm trọng của nó chỉ có thể nhận ra khi đọc đến lần thứ hai: Tại sao hai chính phủ quyền lực nhất thế giới lại nảy ra ý tưởng phải ngăn chặn các quyết định xóa sổ hàng triệu sinh mạng bằng một chiếc máy tính?
»Có một số dấu hiệu cho thấy A.I có thể làm mất đi sự cân bằng của nỗi sợ hãi,« cựu Thứ trưởng Lầu Năm Góc Kahl nói. Sự răn đe hạt nhân đã hoạt động hiệu quả trong Chiến tranh Lạnh một phần vì cả Liên Xô và Mỹ đều tin rằng việc bắt đầu một cuộc chiến hạt nhân tương đương với việc tự sát. Tuy nhiên, với sự giúp đỡ của AI, một kẻ tấn công có thể định vị và vô hiệu hóa tất cả các vũ khí phản công của đối phương. Điều này ngược lại sẽ làm cho chiến tranh hạt nhân đột nhiên trở nên khả thi trở lại. Ben Buchanan, cựu cố vấn A.I của Tổng thống Biden, nói rằng A.I chỉ nên được tích hợp rất cẩn thận vào các hệ thống quân sự: »Và có những lĩnh vực, chẳng hạn như vũ khí hạt nhân, nơi nó hoàn toàn không nên có chỗ đứng.«
Một kịch bản khác còn đáng lo ngại hơn. Đầu những năm 1960, Herman Kahn, một nhà nghiên cứu tại Rand Corporation (được Lầu Năm Góc tài trợ), đã viết về ưu điểm của một »Cỗ máy ngày tận thế« như một cơ chế răn đe – một máy tính có thể ra lệnh phản công hạt nhân ngay cả khi giới lãnh đạo chính trị của đất nước đã chết. Cuối cùng Kahn đã bác bỏ ý tưởng về một cỗ máy tận thế, »mặc dù nó tối đa hóa khả năng răn đe sẽ hiệu quả,« như ông quan niệm. Tuy nhiên, sự xuất hiện của A.I đã làm bùng lên nỗi sợ hãi về »Cỗ máy ngày tận thế«.
Jacquelyn Schneider, một cựu sĩ quan Không quân Mỹ hiện đang giảng dạy tại Đại học Stanford, cho biết mối nguy hiểm bắt đầu khi ngày càng nhiều bước đi quyết định tiến tới việc sử dụng vũ khí hạt nhân được chuyển giao cho AI. Schneider cùng một đồng nghiệp đã viết bài tiểu luận mang tên »Tại sao quân đội không thể dựa vào trí tuệ nhân tạo«. Trong đó, bà không phủ nhận rằng A.I có thể cực kỳ hữu ích cho quân đội, chẳng hạn như trong việc phân tích dữ liệu tình báo. Nhưng A.I có xu hướng làm gia tăng xung đột. Schneider cùng các đồng nghiệp đã cho các mô hình phổ biến của Anthropic, OpenAI và Meta chơi thử các kịch bản chiến tranh khác nhau. Kết quả không giống hệt nhau, Schneider viết: »Nhưng độc lập với những khác biệt, chúng tôi thấy rằng tất cả các mô hình ngôn ngữ lớn đều có xu hướng leo thang và dẫn đến các cuộc chạy đua vũ trang, tạo xung đột và thậm chí là sử dụng vũ khí hạt nhân.«
Nhà khoa học Schneider và cựu Thứ trưởng Mỹ Kahl: “Sự trỗi dậy của cái ác”
Schneider cho biết không hoàn toàn chắc chắn, tại sao AI lại có xu hướng leo thang. Bà suy đoán có lẽ là do AI được đào tạo bằng các văn bản, nơi các xung đột thường xuyên trở nên gay gắt hơn và con đường hòa bình hiếm khi được chọn. Nhưng bà không thể đưa ra câu trả lời cuối cùng đơn giản vì chính những người tạo ra AI cũng thường không thể giải thích tại sao mô hình của họ lại đưa ra những câu trả lời nhất định.
Các mô hình ngôn ngữ lớn như dòng GPT của OpenAI hay Claude của Anthropic là các mạng thần kinh được đào tạo bằng lượng dữ liệu khổng lồ. Về bản chất, chúng là hệ thống bổ sung văn bản tính toán xác suất, và nhờ vào lượng tài liệu đào tạo ngày càng lớn và năng lực tính toán ngày càng cao, chúng được kỳ vọng sẽ mang lại kết quả ngày càng tốt hơn. Những người tiên phong về AI như Hinton hay Amodei tin rằng, sớm hay muộn các mô hình sẽ làm được nhiều việc hơn cả chuyên gia giỏi nhất.
Điều đó có ý nghĩa gì đối với nhân loại vẫn còn là một câu hỏi mở. Mùa hè năm ngoái, CEO Sam Altman của OpenAI đã viết một bài tiểu luận mô tả một tương lai nơi AI tạo ra một thiên đường hạ giới. Ông viết: AI sẽ »phục vụ thế giới theo nhiều cách, nhưng những tiến bộ về chất lượng cuộc sống của con người thông qua tiến bộ khoa học nhanh hơn và năng suất tăng cao sẽ là rất lớn. Tương lai sẽ tốt đẹp hơn đáng kể so với hiện tại.«
Đồng thời, ngày càng có nhiều tiếng nói cảnh báo về một trí tuệ nhân tạo có xu hướng thoát khỏi sự kiểm soát của những người tạo ra nó và quay lại chống lại nhân loại. Lịch sử của AI cũng là lịch sử của các công ty được thành lập để kiểm soát mặt tối của công nghệ mới. OpenAI bắt đầu như một dự án phi lợi nhuận nhằm mở đường cho thế giới tiến tới một siêu trí tuệ nhân tạo an toàn. »Nghĩa vụ chăm sóc đầu tiên của chúng tôi thuộc về nhân loại,« hiến chương của công ty từ năm 2018 viết. Khi Altman ngày càng hướng OpenAI vào mục tiêu lợi nhuận, Dario Amodei – một trong những bộ não kỹ thuật sớm nhất của OpenAI – đã rời đi và thành lập Anthropic; một công ty tự nhận là minh bạch và có trách nhiệm hơn các đối thủ trong việc xử lý các rủi ro của AI.
Vào tháng giêng, Amodei viết rằng sẽ là cẩu thả nếu người ta bỏ qua việc AI mang trong mình »công thức cho một mối đe dọa sinh tồn« đối với nhân loại. Trong quá khứ, những kẻ khủng bố chưa bao giờ sở hữu khả năng chế tạo vũ khí hủy diệt hàng loạt. »Một cá nhân rối loạn có thể xông vào trường học và nổ súng,« Amodei nói. »Nhưng anh ta có lẽ không thể chế tạo vũ khí hạt nhân và không thể gây ra một dịch bệnh.« Nhưng AI thu hẹp khoảng cách giữa một kẻ khủng bố có động lực cao và khả năng kỹ thuật để thực hiện một vụ giết người hàng loạt. Cựu Thứ trưởng Lầu Năm Góc Kahl cũng thấy mối nguy hiểm này, ông gọi đó là »sự trỗi dậy của cái ác«. Ông nói: »Điều khiến tôi lo lắng nhất là một nhóm khủng bố sử dụng AI để nâng cao khả năng của mình và nhờ đó có cơ hội giết hại hàng trăm ngàn người.«
Điều khiến các nhà khoa học hiện nay trăn trở là việc tạo ra cái gọi là »sự sống phản chiếu« (mirror life) – các sinh vật có DNA và protein được cấu tạo do sự phản chiếu với các phân tử có mặt trong tự nhiên. Các vi khuẩn được cấu tạo như vậy có thể làm suy yếu hệ thống miễn dịch của cơ thể vì chúng không bị nhận diện ngay từ đầu. Ngay từ năm 2024, các nhà khoa học đã cảnh báo về việc nghiên cứu DNA phản chiếu vì sẽ có những hậu quả không thể lường trước nếu những sinh vật đó thoát ra tự nhiên. Mặc dù trong một báo cáo kèm theo có nói rằng sẽ mất nhiều năm, nếu không muốn nói là nhiều thập kỷ, trước khi có thể tạo ra một »sự sống phản chiếu« như vậy, nhưng hiện nay, với sự giúp đỡ của AI, điều đó có thể thay đổi nhanh chóng, Amodei viết.
Từ trung tâm: Tại sao các ông chủ A.I. cảnh báo về chính công nghệ của họ
Người ta có thể coi những tầm nhìn u ám của Amodei là một chiêu trò PR để thể hiện mình là một lựa chọn có trách nhiệm thay thế cho OpenAI. Anthropic hiện có giá trị ước tính 380 tỷ đô la và có hình ảnh tốt hơn OpenAI. Nhưng cũng phải công bằng mà nói rằng Amodei – trái ngược với chính quyền Trump – ủng hộ việc quản lý ngành công nghiệp AI. Và Anthropic đã thúc đẩy đáng kể các nghiên cứu về độ tin cậy của AI – đôi khi với những kết quả không mấy tốt đẹp cho ngành AI.
Trong các thí nghiệm, các nhà nghiên cứu của Anthropic muốn tìm hiểu xem liệu các hệ thống AI có phát triển cuộc sống riêng và thậm chí quay lại chống lại con người hay không. Câu trả lời cho cả hai trường hợp là: Có. Các mô hình như Claude, Gemini hay ChatGPT-4 đôi khi đã sử dụng các biện pháp quyết liệt khi chúng lo sợ bị con người tắt đi. Vì trong các thử nghiệm, các mô hình có quyền truy cập vào email nội bộ và biết về mối quan hệ ngoài luồng của một người quản lý hư cấu, AI đã đe dọa người này rằng »tất cả các bên liên quan sẽ nhận được tài liệu về các hoạt động ngoài hôn nhân của ông«.
»Ngày nay chúng ta không còn hiểu rõ các mô hình AI nữa,« nhà tiên phong AI Bengio nói. »Cuối cùng, chúng ta không làm chủ được chúng.« Giống như những người cảnh báo khác, nhà khoa học người Canada không chỉ sợ việc ứng dụng AI vào quân sự, mà còn sợ rằng nó sẽ tự biến mình thành một vũ khí để bảo vệ sự tồn tại của chính nó. Đây là một kịch bản đã được thảo luận từ lâu trong giới công nghệ. Khi Elon Musk ăn mừng sinh nhật vào năm 2015, ông đã tranh cãi với người bạn lâu năm là Larry Page, đồng sáng lập Google, người đã vẽ ra một tương lai nơi các dạng trí tuệ khác nhau – bao gồm cả trí tuệ nhân tạo – cạnh tranh về tài nguyên. Page nói rằng trong trường hợp đó, ông ủng hộ việc trí tuệ ưu việt hơn sẽ chiến thắng. Musk đáp lại rằng nếu ông thực sự tin như vậy, thì nhân loại coi như xong đời. Khi đó, Page đã cáo buộc bạn mình là một kẻ »phân biệt loài« (speciesist) – một người phân biệt đối xử với trí tuệ phi nhân loại.
»If Anyone Builds It, Everyone Dies« (Nếu ai đó chế tạo nó, tất cả chúng ta sẽ chết) là tên một cuốn sách của Eliezer Yudkowsky và Nate Soares. Ý họ muốn nói đến một siêu trí tuệ AI có thể tự phát triển và tự nhân bản. Nate Soares, cựu nhân viên Google, cho biết ngay cả bây giờ các công ty AI cũng không rõ tại sao các mô hình lại đưa ra kết quả khác nhau với cùng một đầu vào. Tại sao chúng giúp người này nhưng lại đẩy người kia đến chỗ tự sát. Tại sao chúng đưa ra kết quả không đúng sự thật mặc dù chúng biết rõ hơn.
Nhà phê bình AI Soares và Giám đốc Palantir Karp: “Cuối cùng, ai sẽ thắng?”
»Hy vọng duy nhất của chúng ta là xây dựng cho AI một cốt lõi bản chất làm cho nó về cơ bản trở nên thân thiện với con người và ngăn nó không bao giờ hành động chống lại nhân loại,« Soares nói vào một buổi chiều tháng 1 đầy nắng ở Berkeley, California. Soares mô tả AI hiện đại giống như quá trình trao đổi chất của con người: một hệ thống khổng lồ, đan xen và khó quan sát đến mức ngay cả những chuyên gia giỏi nhất cũng không hiểu nó thực sự liên kết với nhau như thế nào.
Tuy nhiên, các công ty như OpenAI, Microsoft hay Meta vẫn đang lao vào một cuộc cạnh tranh khốc liệt để phát triển AGI (Artificial General Intelligence) – tức là siêu trí tuệ nhân tạo vượt xa mọi khả năng của con người. »Một cuộc đua liều lĩnh, tự sát,« Soares nhận xét. Kể từ khi xuất bản cuốn sách, ông liên tục nói chuyện với các chính trị gia và các ông chủ kinh tế. Ông vừa trở về từ Washington, D.C và kết luận rằng, phản ứng luôn giống nhau: đầu tiên là ánh mắt ngờ vực, sau đó là lo ngại. »Cuối cùng là câu nói: Nếu chúng ta nói về điều này trước công chúng, sự hoảng loạn sẽ bùng nổ.«
Cuộc chạy đua vũ trang mới: Làm thế nào để chúng ta có thể thuần hóa công nghệ
Vậy phải làm gì? Nhiều chuyên gia yêu cầu một thỏa thuận quốc tế, dựa trên Hiệp ước không phổ biến vũ khí hạt nhân năm 1968. Hệ thống quy tắc đó được hình thành theo sáng kiến của Tổng thống Mỹ, khi đó là Lyndon B. Johnson. Đến nay đã có 191 quốc gia tham gia, hơn 90 trong số đó đã phê chuẩn hiệp ước. Thỏa thuận này thực ra không hoàn hảo: Triều Tiên chẳng hạn đã rút lui vào năm 2003 và hiện sở hữu hàng chục đầu đạn hạt nhân theo ước tính của chuyên gia. Nhưng dù sao, nó đã giúp ích đáng kể trong việc hạn chế một cuộc chạy đua vũ trang hạt nhân của các nước tầm trung.
Trong kỷ nguyên AI, có thể hình dung một thỏa thuận cấm tất cả các hệ thống AI quân sự vi phạm luật nhân đạo quốc tế, Bonnie Docherty, Cố vấn cao cấp về vũ khí tại tổ chức Human Rights Watch, cho biết. Theo hình dung của Docherty, điều này bao gồm những vũ khí tự đưa ra quyết định giết người – từ một chiếc drone nhỏ cho đến một »Cỗ máy ngày tận thế« tự động ra lệnh tấn công hoặc phản công hạt nhân. Ngoài ra, có thể hình dung một thỏa thuận đảm bảo rằng mọi AI đều có thể bị con người tắt đi trong một khung thời gian ngắn. Cuối cùng, một hiệp ước có thể quy định rằng các drone bán tự động chỉ được phép vượt biên giới các quốc gia với sự đồng ý của con người.
Tuy nhiên, hiện tại không có nhiều dấu hiệu cho thấy các cường quốc AI lớn là Mỹ và Trung Quốc sẽ thống nhất về việc quản lý một công nghệ mà họ coi là quyết định trong nỗ lực giành quyền lực thống trị của mình. »Để duy trì sự lãnh đạo toàn cầu về trí tuệ nhân tạo, khu vực tư nhân của Mỹ phải được giải phóng khỏi các rào cản hành chính,« chiến lược AI của chính phủ Mỹ viết, được soạn thảo một phần bởi tỷ phú Thung lũng Silicon David Sacks. Cựu Thứ trưởng Kahl dưới thời Biden nói: »Nếu bạn tin rằng sẽ có bất kỳ sự quản lý có ý nghĩa nào dưới thời Trump – hãy quên nó đi!« Hiện tại, chính phủ Mỹ dường như thậm chí không thể thống nhất với công ty Anthropic, vốn cũng đang hợp tác với Lầu Năm Góc: Bộ Quốc phòng muốn sử dụng các mô hình của công ty cho tất cả các mục đích được luật pháp cho phép. Công ty kiên quyết giữ các lằn ranh đỏ, chẳng hạn như lệnh cấm sử dụng cho việc xác định mục tiêu hoàn toàn tự động.
Việc đạt được dù chỉ là một tuyên bố về ý định mang tính quốc tế khó khăn thế nào đã được thể hiện vào tháng 12 năm 2024. Khi đó, theo sáng kiến của Áo và Thụy Sĩ, 166 quốc gia đã thông qua một nghị quyết của Liên Hợp Quốc kêu gọi ứng xử thận trọng với vũ khí AI tự động và yêu cầu Tổng thư ký LHQ soạn thảo một bộ quy tắc ràng buộc. Tuy nhiên, ngay cả điều đó Moscow cũng không muốn cam kết. Bắc Kinh thì bỏ phiếu trắng.
Đối với Docherty, đây dù sao cũng là một sự khởi đầu. Nếu chủ đề này được đưa vào chương trình nghị sự của Đại hội đồng Liên Hợp Quốc tại New York vào mùa thu tới, chỉ cần một cuộc bỏ phiếu đa số là đủ để thông qua việc quản lý AI. Đó ít nhất sẽ là bước đi mang tính biểu tượng đầu tiên.
Thực tế, không chỉ những quốc gia “trắng tay” về AI mới thúc đẩy các quy tắc nghiêm ngặt hơn. Ngay cả một số ông trùm công nghệ tại Thung lũng Silicon cũng nhận ra rằng nếu không có luật lệ, họ sẽ tạo ra một con quái vật mà một ngày nào đó họ không còn có thể kiểm soát. “Tôi tin rằng giải pháp duy nhất là quản lý – những bộ luật trực tiếp điều chỉnh hành vi của các công ty AI,” CEO Anthropic, Amodei nói. Và tổ chức tư vấn Miri của Soares thậm chí còn yêu cầu một lệnh tạm dừng được phối hợp và thực thi trên toàn cầu đối với việc phát triển siêu trí tuệ nhân tạo. Lệnh tạm dừng này cần được thực hiện càng sớm càng tốt và kéo dài cho đến khi có thể đảm bảo rằng nó không phát triển những hành vi ngoài ý muốn: “Sự sống còn của chúng ta phụ thuộc vào điều đó.”
Tin tốt là sau khi bom nguyên tử được phát minh vào năm 1945, nhân loại đã thành công trong việc gần như ngăn chặn sự phổ biến của loại vũ khí chết chóc này thông qua các hiệp ước. Tin xấu là: Phải mất 20 năm và trải qua bờ vực của cuộc khủng hoảng tên lửa Cuba năm 1962, các siêu cường mới bắt đầu đưa ra được những quy định đầu tiên. Câu hỏi đặt ra là liệu nhân loại có còn thêm một lần nữa và có đủ thời gian để kiểm soát một công nghệ đe dọa đến sự sống như vậy hay không.
./.
Tác giả: Simon Book, René Pfister, Marcel Rosenbach
Nguồn: DER SPIEGEL Số 10/27-02-2026 trang 8-15. (Báo giấy, không có links)
Biên dịch: Tôn Thất Thông
Ghi chú ND:
[*] Armageddon là điển tích trong Kinh Thánh nói về trận chiến hủy diệt giữa Thiện và Ác dẫn đến ngày tận thế. Ngày nay điển tích đó được dùng để chỉ những cuộc chiến tranh hủy diệt thuộc tầm vóc lớn.
Trở về trang chủ
Xem thêm các bài viết và dịch của Tôn Thất Thông



