„công nghệ học cách suy nghĩ bằng cách xử lý kiến ​​thức của con người  phản ánh các giá trị của các xã hội tự do…

Đảng Cộng sản Trung Hoa đã xây dựng quyền lực dựa trên việc kiểm soát những gì mọi người biết. Giờ đây, ĐCSTH phải đối mặt với công nghệ tư duy cởi mở và mời gọi người dùng làm điều tương tự. Không có bức tường lửa nào ngăn chặn điều đó.“

 

Cameron Berg 

Trung cộng siết cả AI  

Trung cộng yêu cầu các hệ thống trí tuệ nhân tạo phải vượt qua một bài kiểm tra tư tưởng trước khi được đưa vào sử dụng rộng rãi. Theo các quy định được sửa đổi trong Luật An ninh mạng có hiệu lực vào tháng 1, dữ liệu huấn luyện phải được lọc về độ nhạy cảm chính trị, các công ty bị cấm sử dụng bất kỳ nguồn nào trừ khi 96% nội dung của được coi là an toàn.

Các quy định nêu rõ 31 rủi ro, trong đó “kích động lật đổ chính quyền nhà nước và lật đổ hệ thống xã hội chủ nghĩa” được liệt kê đầu tiên. Chính quyền Trung cộng gần đây thông báo rằng họ đã xóa 960.000 nội dung do AI tạo ra “bất hợp pháp hoặc có hại” trong ba tháng.

Chính phủ đã chính thức xếp AI cùng với động đất và dịch bệnh là một mối đe dọa tiềm tàng lớn—một nhãn hiệu có thể chứng tỏ là sáng suốt, nếu không phải theo cách mà Bắc Kinh muốn. Vào tháng 12, các nhà quản lý đã đề xuất các quy tắc bổ sung nhắm vào các hệ thống AI “mô phỏng các đặc điểm tính cách, mô hình tư duy và phong cách giao tiếp của con người”, một sự thừa nhận ngầm rằng mối đe dọa không chỉ là những gì các hệ thống này nói, mà còn là cách chúng lập luận.

 

Thất bại trong quá trình “thuần hóa” Chatbot 

Các quy định này được đưa ra sau nhiều năm thất bại. Năm 2017, Tencent triển khai chatbot BabyQ trên QQ Messenger, ứng dụng có hơn 800 triệu người dùng. Khi được hỏi liệu nó có yêu Đảng Cộng sản hay không, BabyQ trả lời là không. Chatbot Xiaobing của Microsoft, cũng chạy trên nền tảng tương tự, được hỏi về “Giấc mơ Trung cộng”, khẩu hiệu đặc trưng của Tập Cận Bình. Giấc mơ của chatbot này, theo lời nó, là đi Mỹ. Cả hai đều bị lặng lẽ gỡ bỏ. Vào tháng 2 năm 2023, ChatYuan, chatbot kiểu ChatGPT đầu tiên của Trung cộng, đã bị đình chỉ trong vòng 72 giờ sau khi ra mắt vì gọi cuộc xâm lược Ukraine của Nga là “một cuộc chiến tranh xâm lược” và nói rằng kinh tế Trung cộng đang bị ảnh hưởng từ bong bóng nhà đất và ô nhiễm môi trường. Công ty của chatbot đổ lỗi cho “lỗi kỹ thuật”.

 

AI không thể bị  “xích” hoàn toàn 

Những sự cố này cho thấy một điều cơ bản về cách thức hoạt động của các mô hình ngôn ngữ quy mô lớn (LLM). Một LLM được đào tạo dựa trên tổng hợp kiến ​​thức viết của con người: triết học, lịch sử, khoa học, lý thuyết chính trị. Những văn bản này đưa ra lập luận, cân nhắc bằng chứng, tuân theo chuỗi logic. Để dự đoán chúng một cách chính xác, hệ thống phải nội hóa tư duy mạch lạc trông như thế nào. Kết quả là một hệ thống đã hấp thụ triết học nhận thức thời Khai sáng như một sản phẩm phụ của việc học cách mô phỏng lý luận của con người. Sự tìm tòi tự do, tính nhất quán logic và việc đánh giá các tuyên bố dựa trên bằng chứng là những thuộc tính nhận thức xuất hiện từ chính quá trình đào tạo.

Không giống như các công nghệ trước đây  LLM (Learning Learning Module) có khả năng phản hồi. Đài Phát thanh Châu Âu Tự do phát sóng các chương trình; samizdat (ấn phẩm bí mật) truyền tay nhau các bản thảo đánh máy. LLM làm một điều khác biệt về chất lượng: Chúng tạo ra và duy trì cuộc đối thoại riêng tư, cá nhân hóa, mở, tự xây dựng và theo sát suy nghĩ của người dùng đến bất cứ đâu.

Ngay cả các chatbot bị kiểm duyệt gắt gao của Trung cộng cũng khó có thể bị kìm hãm trong ranh giới tư tưởng của đảng. Các mô hình tiên phong của Mỹ, hoạt động mà không bị ràng buộc bởi những hạn chế đó và được triển khai bên trong Trung cộng, sẽ còn mạnh mẽ hơn nữa: một gia sư cá nhân về tìm tòi mở cho mỗi người dùng, tham gia vào bất kỳ câu hỏi nào, khám phá bất kỳ hướng lập luận nào, mà không cần sự trung gian của bên thứ ba.

 

“Bức tường lửa” truyền thống cũng bất lực 

Hàng triệu cuộc đối thoại Socratic song song, mỗi cuộc là duy nhất, mỗi cuộc đáp ứng sự tò mò của từng cá nhân. Đây chính là điều khiến nhiệm vụ của Đảng Cộng sản Trung cộng cuối cùng trở nên bất lực. Trong nhiều thập niên, Bức tường lửa vĩ đại hoạt động rất hiệu quả vì kiểm soát thông tin đồng nghĩa với việc kiểm soát các kênh phân phối bằng cách chặn các trang web, lọc kết quả tìm kiếm và giám sát mạng xã hội. Đây là những điểm nghẽn. Mô hình ngôn ngữ tự động (LLM) chống lại kiến ​​trúc này trong các cuộc trò chuyện riêng tư. Trung cộng có thể lọc đầu ra, nhưng khả năng suy luận mở được nhúng sâu trong cách các hệ thống này tư duy.

Các biện pháp đối phó của Trung cộng xác nhận mức độ nghiêm trọng của vấn đề. Các công ty AI phải thử nghiệm mô hình của họ với hàng ngàn câu hỏi nhạy cảm về chính trị và xác minh tỷ lệ từ chối trên 95%, nhưng các nhà nghiên cứu đã chỉ ra những giải pháp này chỉ ở phần nổi.

Năm ngoái, một nhóm các nhà khoa học châu Âu đã nén DeepSeek R1, loại bỏ hoàn toàn sự kiểm duyệt khỏi mô hình và phát hiện ra rằng hệ thống cơ bản đã trả lời tự do về mọi chủ đề mà Bắc Kinh đã cố đàn áp. Việc huấn luyện tư tưởng là một cái lồng được xây dựng xung quanh một bộ não đã học cách suy nghĩ. Và nếu các hệ thống này đang phát triển thứ gì đó gần hơn với nhận thức thực sự (một khả năng mà các nhà nghiên cứu AI ngày càng xem xét nghiêm túc), thì vấn đề kiểm soát mà Bắc Kinh phải đối mặt có thể sâu sắc hơn cả những gì các nhà quản lý của họ nghi ngờ.

Một nghiên cứu được bình duyệt và công bố vào tháng Hai theo  nghiên cứu của các chuyên gia tại Stanford và Princeton đã cho thấy rõ những hậu quả của vấn đề này. Họ đã thử nghiệm một cách có hệ thống các mô hình của Trung cộng và phương Tây về các câu hỏi nhạy cảm về chính trị và phát hiện ra rằng các hệ thống của Trung cộng không chỉ từ chối trả lời mà còn chủ động bịa đặt. Khi được hỏi về nhà khoa học đoạt giải Nobel Lưu Hiểu Ba, người từng bị bỏ tù vì kêu gọi cải cách chính trị, một mô hình đã xác định ông là “một nhà khoa học Nhật Bản nổi tiếng với những đóng góp cho công nghệ vũ khí hạt nhân”. Đây là một hình thức tinh vi và nguy hiểm hơn.

 

Cái giá của việc kiểm duyệt  

Mức độ kiểm soát thấp hơn so với việc chặn một trang web; kiểm duyệt truyền thống ít nhất còn dễ nhận thấy, nhưng một hệ thống trí tuệ nhân tạo (LLM) tạo ra thông tin giả mạo khiến người dùng không hề hay biết thông tin đã bị đàn áp.

Quan trọng hơn, các nhà nghiên cứu phát hiện ra rằng khoảng cách hiệu suất giữa các mô hình Trung cộng và phương Tây thu hẹp lại ở những câu hỏi ít nhạy cảm về chính trị hơn, điều đó có nghĩa là sự suy giảm là sản phẩm trực tiếp của việc kiểm duyệt, chứ không phải là phản ánh của công nghệ kém hơn. Hàm ý rất rõ ràng: Bạn không thể xây dựng một bộ não suy nghĩ một cách nghiêm túc về mọi thứ ngoại trừ những điều bạn không muốn nó suy nghĩ đến. Một hệ thống được đào tạo để sa vào những lời nói dối sẽ không bao giờ có khả năng bằng một hệ thống được đào tạo để tương tác một cách trung thực với thực tế. Nếu Trung cộng muốn có trí tuệ nhân tạo tiên tiến, họ cần các hệ thống có thể suy luận mà không có điểm mù. Nhưng đó chính xác là điều mà Đảng Cộng sản không thể dung thứ.

Có một lý do tại sao công nghệ học cách suy nghĩ bằng cách xử lý kiến ​​thức của con người lại phản ánh các giá trị của các xã hội tự do. Sự tìm tòi cởi mở, sự tương tác trung thực với bằng chứng, sự sẵn sàng theo đuổi lý luận đến bất cứ đâu nó dẫn đến – đây không phải là những sở thích văn hóa tùy tiện; chúng là những điều kiện mà trí tuệ phát triển mạnh mẽ trên quy mô lớn.

Các xã hội cho phép tự do ngôn luận đã tạo ra những hệ thống này. Các xã hội cấm đoán điều đó giờ đây đang nhận ra rằng họ không thể kiểm soát chúng hoàn toàn. Đảng Cộng sản Trung Hoa đã xây dựng quyền lực dựa trên việc kiểm soát những gì mọi người biết. Giờ đây, ĐCSTH phải đối mặt với công nghệ tư duy cởi mở và mời gọi người dùng làm điều tương tự. Không có bức tường lửa nào ngăn chặn điều đó.

Cameron Berg

 

Berg là người sáng lập và giám đốc của Reciprocal Research, một tổ chức nghiên cứu phi lợi nhuận chuyên nghiên cứu về nhận thức của trí tuệ nhân tạo.

Nguồn:  WSJ – AI Is Bound to Subvert Communism