Trí tuệ nhân tạo trong lĩnh vực quân sự : Tác động tới an ninh quốc tế và hàm ý cho Việt Nam
Vào tháng 4/2017, Lầu Năm Góc công bố Dự án Maven (Project Maven), một nỗ lực nhằm tận dụng sức mạnh của AI để phân tích lượng lớn dữ liệu do máy bay không người lái thu thập [1]. Sự ra đời của dự án này đánh dấu một bước ngoặt quan trọng trong việc ứng dụng AI vào lĩnh vực quân sự, đồng thời cũng trở thành tâm điểm của nhiều cuộc tranh luận gay gắt xoay quanh tác động của công nghệ đối với tương lai của xung đột vũ trang [2]. Tuy nhiên, Dự án Maven chỉ là một trong nhiều ví dụ minh họa cho xu hướng ngày càng gia tăng của việc tích hợp AI vào các ứng dụng quốc phòng trên toàn cầu. Từ Mỹ đến Trung Quốc, từ Nga đến Israel, các cường quốc quân sự đang đầu tư mạnh mẽ vào việc phát triển và triển khai các hệ thống AI trong lĩnh vực quốc phòng. Cuộc chạy đua này không chỉ giới hạn ở các siêu cường, mà còn lan rộng đến cả các nước tầm trung, thậm chí cả các nước nhỏ, tạo ra một cục diện quân sự toàn cầu phức tạp, khó đoán định.
Lính Mỹ tuần tra cùng chú chó robot. Ảnh : Forbes
Câu hỏi đặt ra là : AI sẽ định hình tương lai của chiến tranh và tác động đến môi trường an ninh toàn cầu như thế nào ? AI sẽ tác động ra sao tới răn đe hạt nhân và ổn định chiến lược trên toàn cầu ? Liệu công nghệ này có khiến cho xung đột vũ trang trở nên dễ xảy ra hơn hay không ? Đây là những câu hỏi lớn, có tầm vóc chiến lược mà các nhà nghiên cứu nói riêng và cộng đồng quốc tế nói chung cần có lời giải đáp thỏa đáng.
1. Vai trò của AI trong một số xung đột lớn gần đây
Các cuộc xung đột gần đây ở Ukraine và giữa Israel và Hamas đóng vai trò như những "phòng thí nghiệm" thực tế, cung cấp dữ liệu quan trọng về khả năng, hạn chế và tác động của trí tuệ nhân tạo (AI) trong các ứng dụng quân sự [3]. Trong cuộc xung đột ở Ukraine, việc triển khai AI chủ yếu mang tính phòng thủ và bất đối xứng, nhằm đối phó với lực lượng quân sự truyền thống vượt trội của Nga. Lực lượng Ukraine đã sử dụng hiệu quả các máy bay không người lái được tăng cường bởi AI để trinh sát và tấn công chính xác, cho thấy cách các công nghệ có nguồn gốc thương mại với chi phí tương đối thấp có thể thách thức các mô hình quân sự truyền thống. Sự tham gia của các công ty công nghệ như Palantir, cung cấp phần mềm phân tích dữ liệu và AI tiên tiến, đã cho phép Ukraine xử lý và phân tích nhanh chóng một lượng lớn dữ liệu tình báo [4]. Khả năng này đã được chứng minh là quan trọng trong việc dự đoán các động thái của Nga và lập kế hoạch đối phó hiệu quả.
Hơn nữa, việc Ukraine sử dụng AI trong phòng thủ mạng và chống lại các chiến dịch thông tin sai lệch làm nổi bật bản chất mở rộng của chiến tranh hiện đại, vốn có xu hướng ngày càng vượt ra khỏi các giới hạn vật lý. Cuộc xung đột này cho thấy cách AI có thể được khai thác để tăng cường khả năng chống chịu trước các cuộc tấn công mạng và nhanh chóng xác định, tìm phương án đối phó với các nội dung tuyên truyền và thông tin sai lệch, những yếu tố ngày càng được xem là những thành tố quan trọng của chiến tranh hiện đại.
Ngược lại, việc Israel ứng dụng AI trong xung đột ở Dải Gaza thể hiện một cách sử dụng công nghệ này mang tính sát thương diện rộng và gây tranh cãi hơn nhiều. Các hệ thống như "The Gospel" và "Lavender" là ví dụ điển hình của việc lên danh sách mục tiêu và lập kế hoạch tấn công dựa trên AI [5]. Những hệ thống này xử lý một lượng dữ liệu khổng lồ để xác định các mục tiêu tiềm năng, với mục đích được cho là để tăng độ chính xác và giảm thiểu thương vong cho dân thường (nhưng trên thực tế lại có độ sai số rất lớn).
Có thể thấy rằng vai trò của AI đối với sức mạnh quân sự đang ngày càng gia tăng nhanh chóng, thậm chí có thể làm thay đổi cơ bản cách thức vận hành của chiến tranh hiện đại. Sự tích hợp sâu rộng của AI trên chiến trường cũng khẳng định tầm quan trọng then chốt của dữ liệu như một nguồn lực trong chiến tranh hiện đại đã được làm nổi bật, rõ nét hơn nhờ các xung đột lớn gần đây này. Vai trò ngày một lớn hơn của dữ liệu đang làm thay đổi các hoạt động quân sự, với các hệ thống AI đóng vai trò là "xương sống" cho việc xử lý và phân tích thông tin tình báo từ nhiều nguồn đa dạng bao gồm hình ảnh vệ tinh, mạng xã hội và các cảm biến trên mặt đất. Cuối cùng, những thách thức về đạo đức và pháp lý do việc tích hợp AI vào chiến tranh là rất lớn và nhiều khả năng sẽ ngày càng lớn hơn, đòi hỏi sự quan tâm, chú ý từ cộng đồng quốc tế. Việc sử dụng AI trong lựa chọn và tham gia mục tiêu, như đã thấy trong xung đột Israel-Hamas đang đặt ra những câu hỏi lớn về trách nhiệm giải trình, tính minh bạch và việc tuân thủ luật nhân đạo quốc tế trong xung đột vũ trang.
2. Tác động của AI đối với an ninh quốc tế
2.1. AI và nguy cơ leo thang xung đột
Xét từ khía cạnh lý thuyết quan hệ quốc tế, xung đột vũ trang thường nổ ra do hai nguyên nhân chính : sự quá lạc quan từ ít nhất một bên và sự leo thang khủng hoảng ngoài tầm kiểm soát. Sự xuất hiện của AI trong lĩnh vực quân sự và chiến lược đang tạo ra những tác động sâu sắc đối với cả hai yếu tố này, đồng thời làm thay đổi bản chất của xung đột.
Sự lạc quan thái quá là một trong những nguyên nhân chính dẫn đến xung đột vũ trang, xảy ra khi một bên đánh giá quá cao khả năng chiến thắng của mình hoặc đánh giá thấp đối phương. Điển hình là quyết định của Đức phát động Thế chiến I năm 1914, khi họ tin rằng có thể đánh bại Pháp nhanh chóng thông qua Kế hoạch Schlieffen trước khi Nga kịp huy động quân đội [6]. Tuy nhiên, họ đã đánh giá sai khả năng kháng cự của Bỉ và tốc độ huy động của Nga, dẫn đến một cuộc chiến kéo dài và tốn kém. AI có thể giúp giảm nguy cơ này bằng cách cải thiện đáng kể khả năng thu thập và phân tích thông tin. Các mô hình AI tiên tiến có thể xử lý lượng dữ liệu khổng lồ từ nhiều nguồn, phát hiện các mô hình và xu hướng mà con người có thể bỏ qua, giúp các nhà hoạch định chính sách có cái nhìn toàn diện và chính xác hơn về tình hình.
Mặt khác, AI cũng có thể tăng cường sự tự tin thái quá theo nhiều cách. Sự phức tạp và độ chính xác được cho là cao của các mô hình AI có thể tạo ra cảm giác sai lầm về sự chắc chắn, khiến các nhà lãnh đạo đặt niềm tin quá mức vào các dự đoán mà không nhận thức đầy đủ về hạn chế và thiên kiến tiềm ẩn. AI cũng có thể tạo ra "ảo tưởng" về lợi thế quân sự thông qua các hệ thống vũ khí tiên tiến như máy bay không người lái tự hành hoặc hệ thống phòng thủ tên lửa, khiến một quốc gia tin rằng họ có khả năng vượt trội [7]. Ngoài ra, khả năng của AI trong việc tạo ra các kịch bản và mô phỏng phức tạp có thể vô tình khuyến khích tư duy "đánh nhanh thắng nhanh". Các mô phỏng AI có thể cho thấy kết quả tích cực trong các kịch bản xung đột, nhưng chúng có thể không tính đến đầy đủ các yếu tố không thể dự đoán và phi lý tính vốn có trong chiến tranh thực tế.
Nguyên nhân thứ hai dễ dẫn tới bùng phát xung đột vũ trang là do khủng hoảng mất kiểm soát. Leo thang khủng hoảng là một quá trình trong đó căng thẳng giữa các bên tăng dần, cuối cùng dẫn đến xung đột vũ trang mặc dù ban đầu không bên nào mong muốn điều đó [8]. Quá trình này thường bao gồm một loạt các hành động và phản ứng, mỗi bước đi làm tăng cả mức độ đe dọa lẫn mức độ cam kết của các bên.
Cuộc khủng hoảng tên lửa Cuba năm 1962 là một ví dụ nổi tiếng về cách một tình huống có thể nhanh chóng leo thang đến bờ vực chiến tranh hạt nhân. Quyết định của Liên Xô đặt tên lửa ở Cuba và sau đó là phản ứng gay gắt, quyết liệt của chính quyền Kennedy đã tạo ra một tình huống cực kỳ nguy hiểm, chỉ được giải quyết vào phút cuối nhờ ngoại giao khéo léo [9]. Khủng hoảng thường leo thang ngoài tầm kiểm soát do nhiều yếu tố, bao gồm áp lực thời gian, thông tin không đầy đủ, hiểu lầm về ý định của đối phương, và lo sợ về hậu quả của việc tỏ ra yếu đuối. Trong môi trường căng thẳng và bất ổn của khủng hoảng, các nhà lãnh đạo có thể đưa ra những quyết định dẫn đến hậu quả không lường trước được.
Nhìn chung, AI có thể tác động đáng kể đến động lực leo thang khủng hoảng, theo hướng tiêu cực nhiều hơn tích cực. Mặc dù có thể cải thiện khả năng phát hiện sớm các dấu hiệu khủng hoảng, AI cũng có thể rút ngắn đáng kể thời gian ra quyết định trong các tình huống khủng hoảng, với các hệ thống cảnh báo sớm dựa trên AI có khả năng phát hiện các mối đe dọa trong thời gian thực, có thể chỉ trong vài phút. Điều này tạo áp lực lên các nhà lãnh đạo phải đưa ra quyết định nhanh chóng, làm tăng nguy cơ phản ứng quá mức hoặc ra quyết định sai lầm dựa trên thông tin không đầy đủ.
Hơn nữa, sự phụ thuộc vào các hệ thống AI trong quản lý khủng hoảng có thể dẫn đến những hiểu lầm nguy hiểm và giảm khả năng kiểm soát của con người. AI có thể diễn giải sai ý định hoặc hành động của đối phương, đặc biệt là trong các tình huống phức tạp hoặc không rõ ràng. Ngoài ra, việc tự động hóa một số khâu ra quyết định trong quản lý khủng hoảng có thể dẫn đến leo thang ngoài ý muốn. Nếu các hệ thống AI được giao quyền tự động phản ứng đối với các mối đe dọa được nhận thức, có thể xảy ra tình huống "máy giao tiếp với máy", trong đó các hành động tự động của một bên kích hoạt phản ứng tự động từ bên kia, tạo ra một vòng xoáy leo thang nhanh chóng vượt quá tầm kiểm soát của con người.
2.2. AI và răn đe hạt nhân
Răn đe hạt nhân được đông đảo giới nghiên cứu chiến lược xem là đã và đang đóng vai trò chủ chốt trong việc ngăn ngừa một cuộc chiến tranh "nóng" giữa các cường quốc kể từ sau Thế chiến II đến nay. Lý thuyết răn đe hạt nhân, được phát triển bởi các nhà chiến lược như Bernard Brodie và Thomas Schelling, dựa trên nguyên tắc "hủy diệt lẫn nhau chắc chắn" (Mutual Assured Destruction - MAD) [10]. Theo đó, khi các bên đều sở hữu khả năng trả đũa hạt nhân đáng tin cậy, không bên nào dám mạo hiểm phát động một cuộc tấn công trước, vì lo ngại hậu quả hủy diệt không thể chấp nhận được. Hiệu quả của răn đe hạt nhân được minh chứng qua việc không có xung đột trực tiếp nào nổ ra giữa các cường quốc hạt nhân trong suốt thời kỳ Chiến tranh Lạnh và sau đó. Ngay cả trong những thời điểm căng thẳng cao độ như Khủng hoảng tên lửa Cuba năm 1962, logic của răn đe hạt nhân đã giúp các bên kiềm chế và tìm kiếm giải pháp ngoại giao thay vì leo thang quân sự [11].
Tuy nhiên, sự xuất hiện của AI đang tạo ra những thay đổi đáng kể trong động lực của răn đe hạt nhân, có khả năng làm suy yếu, xói mòn tác dụng của vũ khí hạt nhân trong việc ngăn chặn xung đột. Cụ thể, AI có tiềm năng tác động đến ba yếu tố cốt lõi của răn đe hạt nhân : khả năng phát hiện, khả năng sống sót của lực lượng hạt nhân, và quá trình ra quyết định.
Thứ nhất, về khả năng phát hiện, AI có thể nâng cao đáng kể hiệu quả của các hệ thống cảnh báo sớm [12]. Các thuật toán học máy tiên tiến có khả năng phân tích lượng dữ liệu khổng lồ từ nhiều nguồn để phát hiện dấu hiệu của cuộc tấn công hạt nhân sắp xảy ra với độ chính xác và tốc độ vượt trội. Thứ hai, AI có thể tác động mạnh mẽ đến khả năng sống sót của lực lượng hạt nhân – yếu tố then chốt của khả năng trả đũa hạt nhân (second-strike capability) [13]. Các hệ thống AI tiên tiến có thể nâng cao đáng kể khả năng phát hiện và theo dõi các phương tiện phóng tên lửa hạt nhân, bao gồm cả tàu ngầm mang tên lửa đạn đạo. Cuối cùng, AI đang thay đổi cách thức vận hành của hệ thống chỉ huy và kiểm soát hạt nhân [14]. Các hệ thống hỗ trợ ra quyết định dựa trên AI có thể giúp các nhà lãnh đạo xử lý thông tin nhanh hơn trong các tình huống khủng hoảng. Các hệ thống cảnh báo sớm dựa trên AI có khả năng phát hiện dấu hiệu của cuộc tấn công hạt nhân trong thời gian thực, có thể chỉ trong vài phút.
Quan trọng hơn, AI có thể làm thay đổi nhận thức về tính khả thi của một cuộc tấn công hạt nhân phủ đầu thành công. Nếu một quốc gia tin rằng, nhờ có AI, họ có thể phát hiện và vô hiệu hóa toàn bộ kho vũ khí hạt nhân của đối phương trong một đòn tấn công bất ngờ, điều này có thể làm suy yếu nghiêm trọng logic của răn đe hạt nhân. Kết quả là, trong một cuộc khủng hoảng, một bên có thể cảm thấy áp lực phải "sử dụng hoặc mất" vũ khí hạt nhân của mình, làm tăng nguy cơ xung đột leo thang [15].
Về tổng thể, AI rất có thể đặt ra nhiều thách thức nghiêm trọng đối với hiệu quả của răn đe hạt nhân. Bằng cách làm giảm thời gian ra quyết định, tạo ra sự không chắc chắn về khả năng sống sót của lực lượng hạt nhân, và có khả năng thay đổi nhận thức về tính khả thi của một cuộc tấn công phủ đầu, AI đang làm suy yếu các nền tảng của sự ổn định chiến lược dựa trên răn đe hạt nhân. Từ góc nhìn này, sự phát triển và tích hợp sâu rộng của AI vào trong bộ máy quân sự trong tương lai sẽ gây gia tăng nguy cơ xung đột vũ trang giữa các nước lớn nói riêng và giữa các nước sở hữu vũ khí hạt nhân nói chung.
2.3. AI và chi phí của xung đột vũ trang
Sự tích hợp của AI vào các hệ thống quân sự đang làm thay đổi căn bản cách thức tiến hành chiến tranh. Các hệ thống vũ khí tự hành, từ máy bay không người lái đến robot chiến đấu trên mặt đất, sẽ từng bước giảm thiểu sự hiện diện của con người trên chiến trường. Điều này có thể làm giảm đáng kể thương vong cho lực lượng sử dụng chúng, ít nhất là trong một số giai đoạn nhất định của xung đột. Hơn nữa, các cuộc tấn công mạng được hỗ trợ bởi AI có thể gây ra thiệt hại đáng kể cho cơ sở hạ tầng quan trọng của đối phương mà không cần đến sự hiện diện vật lý trên lãnh thổ của họ. Điều này khiến ranh giới giữa chiến tranh và hòa bình, giữa mục tiêu quân sự và dân sự, mờ đi đáng kể.
Việc chi phí chính trị của xung đột giảm đi có thể dẫn đến việc gia tăng số lượng các cuộc xung đột cường độ thấp, ở quy mô hạn chế [16]. Các nhà cầm quân có thể cảm thấy sẵn sàng sử dụng vũ lực hoặc tiến hành các hoạt động gây hấn hơn khi họ tin rằng mình có thể kiểm soát được mức độ leo thang và hạn chế thiệt hại. Điều này đặt ra thách thức đáng kể đối với các cơ chế ngăn chặn xung đột truyền thống. Sự phức tạp và tốc độ của các cuộc xung đột được hỗ trợ bởi AI có thể làm suy yếu hiệu quả của các cơ chế giải quyết xung đột truyền thống như đàm phán ngoại giao hoặc can thiệp của bên thứ ba. Khi các quyết định được đưa ra với tốc độ ngày càng nhanh và dựa trên các phân tích phức tạp của AI, có thể sẽ ít có thời gian và không gian cho các nỗ lực ngoại giao truyền thống. Về tổng thể, việc AI giúp giảm các chi phí liên quan đến sử dụng vũ lực nhiều khả năng sẽ khiến công cụ này trở nên "hấp dẫn" hơn trong mắt của các nhà lãnh đạo ở một số quốc gia, do đó làm tăng nguy cơ có xung đột vũ trang xảy ra trong tương lai.
3. Hàm ý đối với Việt Nam
Đối với Việt Nam, AI trong lĩnh vực quân sự mở ra cả cơ hội lẫn thách thức. Trước hết, nếu tận dụng tốt, AI có thể trở thành công cụ đắc lực bảo vệ an ninh quốc gia, nhất là trong tình hình Biển Đông căng thẳng. Các hệ thống giám sát và phân tích dựa trên AI sẽ giúp ta nâng cao khả năng phát hiện và ứng phó kịp thời với các hành vi xâm phạm chủ quyền trên biển. Việc ứng dụng AI vào phòng thủ ven biển và hải đảo cũng sẽ tăng cường đáng kể năng lực bảo vệ lãnh thổ mà không tốn quá nhiều nguồn lực.
Tuy nhiên, việc các nước tham gia vào một cuộc chạy đua AI trong lĩnh vực quân sự nhiều khả năng sẽ làm xấu đi tình hình an ninh khu vực và thế giới trong thời gian tới. Sự phát triển mạnh mẽ của các hệ thống vũ khí thông minh, giúp giảm thiểu sự hiện diện của binh lính trên chiến trường, có thể khiến việc sử dụng vũ lực trở nên dễ dàng hơn, dẫn đến nhiều cuộc đụng độ nhỏ lẻ nhưng thường xuyên hơn. Điều này buộc Việt Nam phải liên tục cập nhật chiến lược quốc phòng để thích ứng với môi trường an ninh mới.
Trong bối cảnh đó, Việt Nam cần chủ động hơn nữa ở các diễn đàn quản trị AI, từ khu vực ASEAN đến toàn cầu. Đặc biệt, Việt Nam có tiềm năng dẫn dắt một phong trào vận động chống lại xu hướng tích hợp AI vào các hệ thống vũ khí có rủi ro cao, có khả năng gây sát thương trên diện rộng. Lập trường này vừa bảo vệ lợi ích an ninh quốc gia, vừa thể hiện một cách thực chất cam kết của Việt Nam đối với hòa bình khu vực.
Trong khuôn khổ ASEAN, Việt Nam có thể đề xuất xây dựng bộ quy tắc có tính ràng buộc về phát triển và sử dụng AI quân sự. Bộ quy tắc này cần nhấn mạnh các nguyên tắc minh bạch, trách nhiệm giải trình và sự kiểm soát của con người. Ở tầm quốc tế, ta cần tích cực tham gia các cuộc thảo luận tại Liên Hợp Quốc và các diễn đàn khác, bảo đảm tiếng nói của các nước đang phát triển được lắng nghe trong quá trình xây dựng luật chơi toàn cầu về AI quân sự.
Cuối cùng, song song với nỗ lực ngoại giao, Việt Nam cần đẩy mạnh phát triển nguồn nhân lực AI chất lượng cao, đặc biệt trong lĩnh vực an ninh mạng và phân tích dữ liệu lớn. Điều này không chỉ giúp tăng cường năng lực phòng thủ mà còn đảm bảo ta có đủ chuyên gia để đóng góp hiệu quả vào các cuộc thảo luận quốc tế về AI quân sự. Việc đào tạo đội ngũ chuyên gia AI am hiểu sâu sắc về an ninh quốc tế và chiến lược quốc phòng là nhiệm vụ cấp bách để Việt Nam có thể ứng phó hiệu quả với các thách thức an ninh trong thời đại số.
Ngô Di Lân
Nguồn : Nghiên cứu quốc tế, 15/09/2024
—————-
[1] Saleha Mohsin, "Inside Project Maven, the US Military’s AI Project", Bloomberg, ngày 1/3/2024.
[2] James Johnson, "Artificial intelligence & future warfare : implications for international security", Defense & Security Analysis 35, số 2 (2019), pp 147-169.
[3] David Wallace-Wells, "What War by A.I. Actually Looks Like", The New York Times, ngày 10/4/2024.
[4] Vera Bergengruen, "How Tech Giants Turned Ukraine Into an AI War Lab", TIME, ngày 8/2/2024.
[5] Sigal Samuel, "Some say AI will make war more humane. Israel’s war in Gaza shows the opposite", Vox, ngày 8/5/2024.
[6] Terence M. Holmes, "Back to the sources: An attempt to resolve the Schlieffen Plan controversy", War in History 28, số 3 (2021), pp 525-543.
[7] Dominic Johnson, Overconfidence and war: The havoc and glory of positive illusions (Cambridge : Harvard University Press, 2004).
[8] Barry R. Posen, Inadvertent escalation: Conventional war and nuclear risks (Ithaca : Cornell University Press, 2014).
[9] Sergey Radchenko và Vladislav Zubok, "Blundering on the Brink : The Secret History and Unlearned Lessons of the Cuban Missile Crisis", Foreign Affairs, ngày 3/4/2023.
[10] Henry D. Sokolski, Getting MAD : nuclear mutual assured destruction, its origins and practice (Carlisle : Strategic Studies Institute, US Army War College, 2004).
[11] Dean C. Curry, "Beyond MAD : Affirming the Morality and Necessity of Nuclear Deterrence", Transformation 5, số 1 (1988), pp 8-15.
[12] James Johnson, "Artificial intelligence in nuclear warfare : a perfect storm of instability?", The Washington Quarterly 43, số 2 (2020), pp 197-211.
[13] Michael C. Horowitz, Paul Scharre, và Alexander Velez-Green, "A stable nuclear future ? The impact of autonomous systems and artificial intelligence", arXiv preprint arXiv:1912.05291 (2019).
[14] Alice Saltini, "AI and Nuclear Command, Control and Communicationsn: P5 Perspectives", The European Leadership Network (2023).
[15] Even Hellan Larsen, "Deliberate Nuclear First Use in an Era of Asymmetry : A Game Theoretical Approach", Journal of Conflict Resolution 68, số 5 (2024), pp 849-874.
[16] Robert E. Osgood, Limited war revisited (London: Routledge, 2019).
Các hiện tượng thời tiết cực đoan gây ra lũ lụt, hạn hán, cháy rừng xảy ra thường xuyên và nghiêm trọng hơn, ảnh hưởng đến các quốc gia trên toàn cầu. Để ứng phó với biến đổi khí hậu, Trí tuệ nhân tạo (AI), ngày càng được sử dụng trong nhiều lĩnh vực, được xem là giải pháp hữu hiệu, dù còn nhiều bất cập.
Tại Trung Quốc, nhiều Trí tuệ nhân tạo hỗ trợ ứng phó với biến đổi khí hâu.
đầm lầy, sông hồ dần biến mất do tác động của hiện tượng trái đất nóng lên. Dọc theo sông Giang Tô, tại khu bảo tồn hồ Chenhu, với khoảng 11 000 héc-ta đất ngập nước, các hoạt động của con người được hạn chế, nhưng Trí tuệ nhân tạo được triển khai rộng rãi. Trong một bảo tàng sinh thái được thiết lập trong khu vực này, một căn phòng được dành riêng để bố trí các loa phát thanh và hình ảnh thu được từ 31 camera và 21 micro, được lắp đặt khắp khu bảo tồn. Một nhân viên của bảo tàng, Wehn Zhou, trả lời RFI Pháp ngữ giải thích rằng "đó là hệ thống trí tuệ nhân tạo, với một bảng điều khiển lớn, cùng các công cụ đo lường, cũng như các dữ liệu về thực vật và đất. Và sau đó là các mô-đun về âm thanh và hình ảnh…".
Trí tuệ nhân tạo được sử dụng để hỗ trợ bảo vệ khoảng 277 loài chim, 58 loài cá, động vật lưỡng cư và khoảng 30 loài động vật có vú, ẩn náu trong hệ sinh thái ngập nước ở miền trung Hoa lục. Thay vì dùng ống nhòm như trước kia, để quan sát các loài chim, hay phải cử người đi thực địa, thì từ năm 2022, các camera và micro được lắp đặt cho phép giám sát, theo dõi các loài vật từ xa và can thiệp khi cần (nếu như có loài nào đó bị thương).
Theo trang China Daily, hệ thống được tích hợp Trí tuệ nhân tạo cho phép phát hiện các loài chim đến hoặc rời đi, cũng như xác định khu vực mà các loài chim thích di chuyển đến bằng cách xác định loài thông qua tiếng chim. Hình ảnh chụp các loài chim từ camera sẽ được tự động so sánh với ảnh trong cơ sở dữ liệu có sẵn, kết hợp với âm thanh, để tăng độ chính xác khi nhận dạng loài.
Khi con người ít can thiệp vào tự nhiên, nhiều loài chim mới đã được phát hiện, hoặc xuất hiện trở lại, như loài bồ nông Dalmatian quý hiếm, (chỉ khoảng 150 con ở Đông Á), hay loài hồng hạc lớn vốn không xuất hiện tại khu bảo tồn từ nhiều năm qua.
AI hỗ trợ dự báo thời tiết chuẩn xác hơn
Trí tuệ nhân tạo cũng được triển khai bởi các nhà khoa học ở vùng Sừng Châu Phi, khu vực thường xuyên hứng chịu các trận mưa lớn, gây ngập lụt, hay những đợt hạn hán kéo dài. Theo hãng tin AP, trí tuệ nhân tạo được sử dụng để dự báo tốt hơn, các hiện tượng thời tiết cực đoan ngày càng khó lường do biến đổi khí hậu.
Hệ thống dự báo thời tiết, do Chương trình lương thực thế giới của Liên Hiệp Quốc và Google tài trợ, được phát triển bởi các nhà khoa học từ khoa vật lý, đại học Oxford của Anh Quốc, trong đó có cô Shruti Nath : "Chúng tôi có một cách tiếp cận kết hợp, sử dụng trí tuệ nhân tạo để lấp đầy những khoảng trống trong vật lý, hoặc xử lý những dữ liệu quá phức tạp. Trí tuệ nhân tạo có thể khiến các dữ liệu đó được trình bày một cách đơn giản hơn, và cho phép dự báo gần với thực tế nhất. Cụ thể, để có thể dự báo, AI được đào tạo, nắm được các dữ liệu lịch sử về thời tiết, nhiệt độ… sau đó có thể đem so sánh với dữ liệu thu được từ thực tế, qua đài quan sát hoặc qua vệ tinh. Mô-đun AI mà chúng tôi tạo ra sẽ ngày càng học được nhiều hơn. Chúng tôi thậm chí còn "khen thưởng" AI, nếu đưa ra dự báo chính xác, phù hợp với thực tế quan sát được. Nếu không làm được thì AI sẽ bị phạt".
Theo AP, tại Anh, trong việc dự báo thời tiết, các siêu máy tính được sử dụng, có khả năng thực hiện 16 000 phép tính mỗi giây. Thế nhưng, chi phí để vận hành những siêu máy tính này và các trạm thu thập dữ liệu lại rất đắt đỏ, và không có sẵn ở các nước đang phát triển. Mô hình dự báo AI mà các nhà khoa học vật lý của đại học Oxford tạo ra thì lại có thể vận hành từ máy tính xách tay.
Việc dự báo thời tiết ở Sừng Châu Phi hiện vẫn gặp nhiều khó khăn, do thời tiết thay đổi thất thường và thiếu các trạm quan sát khí tượng cũng như thu thập dữ liệu, khiến người dân vốn trong tình trạng dễ bị tổn thương có nguy cơ gặp nhiều rủi ro. Hiện mô đun nói trên vẫn còn trong quá trình thử nghiệm, nhưng có thể đưa ra dự báo trong vòng 48 giờ, và có thể gửi cảnh báo nguy hiểm qua tin nhắn, thư điện tử, và thậm chí là cả đến đài phát thanh hoặc truyền hình.
Chương trình này hiện đang được thí điểm ở Kenya và Ethiopia, nếu thành công, có thể được triển khai ở những khu vực khác trên thế giới, tại những nơi thời tiết ngày càng khắc nghiệt do biến đổi khí hậu, tác động đến cuộc sống của con người.
AI dự báo ô nhiễm
Vẫn về khí hậu, hồi tháng 6 vừa qua, các nhà nghiên cứu về Trí tuệ nhân tạo của tập đoàn Microsoft đã cho ra mắt một mô-đun với tên gọi Aurore AI, được cho là "cách mạng hoá" việc dự báo ô nhiễm không khí, lần đầu tiên cho phép dự báo mức độ ô nhiễm trên phạm vi toàn cầu trong vòng chưa đầy một phút, theo tạp chí khoa học Nature.
Matthew Chantry, nhà nghiên cứ về máy học tại Trung tâm Dự báo Thời tiết Trung bình Châu Âu (ECMWF) , cho biết "dự đoán ô nhiễm không khí thường phức tạp hơn nhiều so với dự báo thời tiết" và Aurora có những tính năng tiến bộ đáng kể so với mô hình dự báo trước kia.
Mô-đun trí tuệ nhân tạo này có thể dự báo trên toàn cầu và không cần nhiều phép tính. Để tạo ra Aurora AI và các tính năng nói trên, các nhà khoa học đã tích hợp một kho dữ liệu khổng lồ, với hơn 1 triệu giờ dữ liệu từ 6 mô hình thời tiết và khí hậu khác nhau. Cụ thể, Aurora có thể dự báo mức độ của sáu chất gây ô nhiễm không khí chính, bao gồm carbon monoxide, nitơ oxit, sulfur dioxide, ozone và các hạt vật chất, trên toàn thế giới trong vòng chưa đầy một phút. Công nghệ này cung cấp các dự đoán về ô nhiễm trong 5 ngày và dự báo thời tiết toàn cầu trong 10 ngày với độ chính xác và hiệu quả vượt trội, với chi phí tính toán thấp hơn đáng kể so với các mô hình thông thường mà Cơ quan giám sát khí quyển Copernicus của Châu Âu sử dụng.
"Đồng minh của các nhà khí tượng học"
Trên tạp chí của Viện nghiên cứu Polytechnique de Paris , ông Samuel Morin, giám đốc Trung tâm nghiên cứu khí tượng quốc gia Pháp (CNRM), nhận định rằng Trí tuệ nhân tạo được xem là một "đồng minh của các nhà khí tượng học".
Ông Morin nêu ra hai hai mô-đun tích hợp Trí tuệ nhân tạo, là Arome và Arpège, được cơ quan Météo-France sử dụng, để mô phỏng bầu khí quyển trên lãnh thổ Pháp và các khu vực hải ngoại cũng như của toàn bộ hành tinh.
Công cụ Arome có thể giúp cải thiện khả năng dự báo ngắn hạn về các hiện tượng nguy hiểm như các trận mưa lớn, bão, sương mù ở Địa Trung Hải, hoặc nhiệt độ tăng cao tại khu vực đô thị trong các đợt nắng nóng. Công cụ này cũng cho phép thực hiện các mô phỏng với độ phân giải rất tốt, bằng cách "cắt" lớp khí quyển thành các khối nhỏ.
Trí tuệ nhân tạo cũng được các nhà nghiên cứu của Pháp sử dụng để mô phỏng sự tiến hoá của sông băng từ quá khứ cho đến tương lai, để hiểu các quá trình vật lý, và qua đó, dự đoán những diễn biến có thể xảy ra trong tương lai của sông băng và tác động của chúng đối với mực nước biển dâng, tài nguyên nước và hệ sinh thái, nhất là có thể tìm ra giải pháp ứng phó với tình trạng tan băng hà do biến đổi khí hậu.
Tiềm năng giúp trái đất đạt trung hòa carbon
Vào năm 2023, trước thềm Hội nghị khí hậu COP 28, Liên Hiệp Quốc đã thiết lập một tổ chức cố vấn về Trí tuệ nhân tạo AI Advisory Body , nhằm thúc đẩy xu hướng sử dụng máy học – machine learning, "tìm ra giải pháp cho các thánh thức chung", "giải quyết vấn đề biến đổi khí hậu", để nhiều chính phủ, doanh nghiệp và xã hội dân sự cùng được hưởng lợi.
Ngoài các tính năng nói trên, theo trang tin của Liên Hiệp Quốc, Trí tuệ nhân tạo cũng có thể hỗ trợ phòng tránh các thảm họa khí hậu, hay hỗ trợ đạt trung hòa carbon, chẳng hạn như tự động hoá việc thu thập và phân tích dữ liệu, giúp xác định, điều chỉnh các nguồn phát thải hiệu quả hơn.
Về vấn nạn thời trang nhanh, fast-fashion, AI cũng có thể can thiệp, tối ưu hóa chuỗi cung ứng để giảm lãng phí, giám sát mức tiêu thụ tài nguyên và thúc đẩy các quy trình sản xuất bền vững. Trí tuệ nhân tạo cũng có thể giúp đẩy nhanh quá trình chuyển đổi năng lượng bằng cách tối ưu hóa việc tiết kiệm và nâng cao hiệu quả trong các lĩnh vực sử dụng nhiều năng lượng.
Trí tuệ nhân tạo cũng gây ô nhiễm
Tuy có nhiều tiềm năng lớn trong việc giải quyết các vấn đề về khí hậu, nhưng Trí tuệ nhân tạo cũng có nhiều điểm bất cập.
AI gây ô nhiễm, trước tiên, là do việc sản xuất các thiết bị máy tính, chẳng hạn như chip điện tử, có thể xử lý số lượng lớn dữ liệu. AI cũng tiêu thụ rất nhiều điện. Một nghiên cứu được công bố trên tạp khí khoa học Joule chỉ ra rằng vào năm 2027, AI có thể tiêu thụ 85 đến 134 terawatt giờ (TWh), tức là mức tiêu thụ tương đương với mức tiêu thụ điện của Achentina hoặc của Thụy Điển ! Theo một số nhà quan sát, được La Tribune nêu ra, mặc dù những dữ liệu này không đáng tin cậy, những vẫn giá trị làm nổi bật vấn đề ngày càng tăng về lượng khí thải carbon của các mô hình trí tuệ nhân tạo. Ví dụ, nghiên cứu của đại học California chỉ ra rằng việc huấn luyện AI cho Chat GPT-3, đã tiêu tốn 552 tấn CO2. Con số này tương đương với 205 chuyến bay khứ hồi Paris-New York bằng máy bay
Ngoài ra, những trung tâm dữ liệu cho AI cũng tiêu thụ một lượng lớn nước để làm mát. Các nhà nghiên cứu lo ngại rằng trong tương lai mức tiêu thụ này sẽ ảnh hưởng đến trữ lượng nước, đặc biệt trong bối cảnh hạn hán. Dĩ nhiên, giới khoa học cũng nhận thức được điều này và tìm các giải pháp giảm thiểu tác động môi trường của AI. Ví dụ, Microsoft đã làm chìm một trung tâm dữ liệu ở Bắc Hải và việc làm mát trung tâm này được cung cấp bởi dòng nước lạnh xung quanh.
Chi Phương
Geoffrey Hinton tin rằng AI đã có những trải nghiệm giống như con người.
Geoffrey Hinton, giáo sư danh dự tại Đại học Toronto, nói chuyện với tờ Nikkei tại nhà ông gần khuôn viên trường đại học ở Toronto. (Ảnh của Katsuyoshi Tanaka)
Trí tuệ nhân tạo (Artificial Intelligence - AI) đang phát triển với tốc độ đáng kinh ngạc. Thế giới sẽ thay đổi thế nào khi chúng ta bước vào thời đại mà trí tuệ con người bị vượt trội trên mọi lĩnh vực ? Các phóng viên của Nikkei đã phỏng vấn giáo sư hưu trí Geoffrey Hinton của Đại học Toronto, người được mệnh danh là "Bố già của nghiên cứu AI", tại nhà riêng của ông ở Canada để thảo luận về tương lai của AI và nhân loại.
Dưới đây là bản biên tập nội dung cuộc phỏng vấn của Nikkei với Hinton.
Nikkei : Tại sao ông lại rời Google, dù ông chịu trách nhiệm phát triển AI ?
Geoffrey Hinton : Tôi đã nói chuyện với sếp của mình tại Google về việc nghỉ hưu bởi tôi đã 75 tuổi rồi, và về cả nỗi lo về mối đe dọa sống còn từ AI. Tôi cũng muốn được tự do nói chuyện công khai về điều đó.
Ông ấy bảo tôi "Tại sao ông không ở lại Google và giải quyết mối đe dọa sống còn đó ?" Nhưng tôi muốn nghỉ hưu. Nếu anh làm việc cho một công ty, ngay cả khi công ty không trực tiếp chỉ thị anh phải nói gì, anh cũng không thực sự được tự do nói về điều anh tin. Anh phải suy nghĩ đến lợi ích của công ty.
Nikkei : Tại sao ông nghĩ AI có thể trở thành mối đe dọa đối với nhân loại ?
Geoffrey Hinton : Anh có thể chỉ định một mục tiêu mà anh cho là tốt, nhưng AI có thể thực hiện mục tiêu đó theo cách không tốt lắm. Một ví dụ đơn giản là, giả sử anh có một AI siêu thông minh và anh nói với nó rằng mục tiêu của anh là ngăn chặn biến đổi khí hậu. Tôi đoán điều đầu tiên nó nhận ra sẽ là việc anh cần loại bỏ con người. Thế nên, hãy cẩn thận khi xác định mục tiêu.
Giả sử có sự cạnh tranh giữa các AI khác nhau. Một AI trở nên thông minh hơn bằng cách xem xét nhiều dữ liệu hơn, và để làm được điều đó, nó cần rất nhiều trung tâm dữ liệu, rất nhiều tài nguyên. Vì vậy, trong cuộc cạnh tranh, hai AI cạnh tranh với nhau để giành tài nguyên, ai nhận được nhiều tài nguyên hơn sẽ làm tốt hơn. Đó sẽ là một loại quá trình tiến hóa, trong đó AI cạnh tranh với nhau, còn con người chúng ta sẽ bị bỏ lại thật xa.
Nhiều người nói rằng "Sao không tạo ra một công tắc lớn và cứ thế tắt nó đi ?" Chà, nếu AI thông minh hơn chúng ta, và chừng nào chúng còn có thể nói chuyện với chúng ta, thì chúng sẽ có thể thuyết phục người chịu trách nhiệm quản lý công tắc rằng việc tắt công tắc là một ý tưởng rất tồi.
Nikkei : Sinh viên của ông, người đồng sáng lập OpenAI Ilya Sutskever, đã cố gắng nhưng thất bại trong việc loại bỏ CEO OpenAI Sam Altman vào tháng 11/2023. Nguyên nhân là do mối đe dọa mà AI gây ra cho nhân loại.
Geoffrey Hinton : Cậu ấy rất quan tâm đến vấn đề an toàn. OpenAI là một trường hợp mà trong đó mọi thứ đều được sắp xếp để ưu tiên tính an toàn. Sứ mệnh của công ty kiểm soát phần hoạt động vì lợi nhuận của OpenAI cũng là sự an toàn. Nhưng ngay cả thế, lợi nhuận vẫn xếp cao hơn an toàn.
Hồi năm 2012, dường như những bộ óc kỹ thuật số này vẫn chưa tốt bằng con người. Chúng có thể đạt được khả năng nhận dạng vật thể và hình ảnh gần bằng con người, nhưng vào thời điểm đó, chúng tôi không nghĩ chúng có thể xử lý ngôn ngữ và hiểu những thứ phức tạp. Ilya đã thay đổi suy nghĩ trước tôi. Và hóa ra cậu ấy đã đúng.
Nikkei : Liên Hiệp Quốc đã quyết tâm hành động khẩn cấp liên quan đến quy định về chuyển hướng quân sự của AI tiên tiến.
Geoffrey Hinton : Sẽ có những vũ khí nguy hiểm, tự động, và gây chết người. Tôi khá chắc điều ấy sẽ xảy ra một lúc nào đó trong 10 năm tới. Lúc đó, người ta có thể kiểm soát chúng, giống như vũ khí hóa học. Chúng vẫn được sử dụng, nhưng không phổ biến như trong Thế chiến I. Nghĩa là hiệp định quốc tế về vũ khí hóa học đã có phát huy tác dụng. Hy vọng chúng ta có thể đạt được điều tương tự khi sử dụng robot tác chiến bằng AI. Nhưng tôi không nghĩ điều đó sẽ xảy ra cho đến khi chúng được đưa vào sử dụng.
Có một số điểm chung, mà tất cả các quốc gia đều có thể đồng ý, đó là chúng ta không muốn AI lên thống trị. Tất cả các quốc gia có thể chia sẻ nghiên cứu và thống nhất về các chính sách được thiết kế để ngăn chặn AI thống trị. Trong giai đoạn đỉnh điểm của Chiến tranh Lạnh, Nga và Mỹ đã chia sẻ những thông tin nhất định để ngăn chặn chiến tranh hạt nhân, bởi vì chiến tranh hạt nhân rõ ràng là có hại cho cả hai bên. Họ muốn ngăn chặn nó và họ đã thành công trong việc ngăn chặn nó.
Nikkei : Các AI tương tác, chẳng hạn như ChatGPT do OpenAI phát triển, có hiểu được ngôn ngữ con người hay không ?
Geoffrey Hinton : Tôi nghĩ chúng thực sự hiểu được. Tôi đã tạo ra mô hình ngôn ngữ đầu tiên với mạng thần kinh nhân tạo vào năm 1985. Nó được thiết kế như một mô hình về cách bộ não con người hiểu. Hầu hết những người nói rằng AI không hiểu đều không có một lý thuyết rõ ràng về cách con người chúng ta hiểu.
Nikkei : Ông từng cho rằng AI có thể hành động như thể nó hiểu ngôn ngữ, nhưng thực tế nó không hiểu.
Geoffrey Hinton : Tôi luôn lấy việc liệu AI có thể hiểu được một câu nói đùa hay không làm tiêu chí để đánh giá liệu nó có thực sự hiểu được mọi thứ hay không. Chatbot mà Google đã tạo ra vào năm 2022, PaLM, có thể hiểu tại sao một câu nói đùa lại buồn cười. Tôi đã yêu cầu nó giải thích một số câu đùa khác nhau và nó có thể giải thích tất cả.
Hinton đã xây dựng nền tảng học sâu và công nghệ cốt lõi cho trí tuệ nhân tạo. (Ảnh của Katsuyoshi Tanaka)
Nikkei : Ông có nghĩ rằng hiểu biết của chúng ta về loài người cũng đã thay đổi thông qua nghiên cứu về AI không ?
Geoffrey Hinton : Tôi nghĩ quá trình xây dựng các mạng thần kinh nhân tạo đã giúp chúng ta khám phá ra nhiều điều về cách thức hoạt động của bộ não. Chẳng hạn, một số triết gia và nhà ngôn ngữ học cho rằng ngôn ngữ là thứ [máy móc] không thể học được, mà đòi hỏi phải tiến hóa, phải thuộc về bản năng. Nhưng điều đó hóa ra là hoàn toàn không đúng.
Suốt 50 năm, tôi đã phát triển nhiều mạng thần kinh nhân tạo, cố gắng làm cho chúng giống bộ não hơn. Và tôi luôn tin rằng nếu chúng càng giống bộ não con người thì càng tốt, vì bộ não hoạt động tốt hơn nhiều so với mạng thần kinh. Nhưng đầu năm 2023, tôi đã đột ngột thay đổi suy nghĩ của mình.
Con người có thể cố gắng chia sẻ kiến thức nhưng chúng ta làm việc đó rất chậm. Trong tính toán kỹ thuật số, anh đưa mọi thứ về số 1 và số 0, theo đó kiến thức trở thành bất tử. Nó không phụ thuộc vào bất kỳ phần cứng cụ thể nào.
Các mô hình ngôn ngữ lớn có tất cả lượng kiến thức đó, lượng kiến thức nhiều gấp hàng nghìn lần so với những gì con người chúng ta có, với số lượng kết nối ít hơn khoảng 100 lần, điều này cho thấy AI có thuật toán học tập hiệu quả hơn.
Nikkei : Liệu AI có thể tự nhận thức hoặc có ý thức không ?
Geoffrey Hinton : Tôi nghĩ các chatbot đa phương thức đã bắt đầu có những trải nghiệm mang tính chủ quan.
Tôi cho rằng suy nghĩ của hầu hết mọi người về mô hình não bộ đều sai. Để tôi cho anh một ví dụ : Giả sử tôi uống quá nhiều rượu, và sáng hôm sau thức dậy nhìn thấy những chú voi hồng nhỏ xíu. Tôi sẽ nghĩ điều đó có nghĩa là hệ thống nhận thức của tôi không hoạt động bình thường.
Bây giờ, giả sử tôi có một chatbot đa phương thức và nó có camera và một cánh tay, nên nó có thể chỉ trỏ, hiểu ngôn ngữ, và đã được huấn luyện. Tôi đặt một lăng kính phía trước camera của chatbot để làm cong các tia sáng, rồi đặt một vật thể ở phía trước nó. Nhưng chatbot không biết về lăng kính. Lúc này tôi nói : "Hãy chỉ vào vật thể", rồi lại nói, "Không, đó không phải là vật thể. Vật thể ở ngay trước mặt bạn. Tôi đã đặt một lăng kính trước camera của bạn".
Chatbot sẽ đáp lại, "Ồ, tôi có thấy vật thể đó thực sự ở ngay trước mặt tôi. Nhưng tôi có trải nghiệm chủ quan rằng nó ở đằng kia". Giờ đây, nếu một chatbot nói điều đó thì tôi nghĩ nó sẽ sử dụng từ "trải nghiệm chủ quan" theo cùng một cách chính xác như con người.
Nikkei : Giáo sư Yann LeCun của Đại học New York ở Mỹ, người đồng đoạt Giải Turing với ông, lại phủ nhận khả năng tri thức hoặc tri giác trong AI.
Geoffrey Hinton : Chúng tôi vẫn là bạn bè, nhưng về điểm này chúng tôi hoàn toàn không đồng ý với nhau. Hầu hết mọi người nghĩ rằng AI không có trải nghiệm chủ quan. Con người chúng ta có một điều đặc biệt, đó là ý thức, trải nghiệm chủ quan, hoặc khả năng tri giác, còn AI thì không có thứ đó. Tôi nghĩ quan điểm đó thật sai lầm.
Kosuke Shimizu và Kazuyuki Okudaira thực hiện
Nguyên tác : ‘Godfather of AI’ speaks on threat of tech surpassing humanity, Nikkei Asia, 31/03/2024
Nguyễn Thị Kim Phụng biên dịch
Nguồn : Nghiên cứu quốc tế, 03/04/2024
Trong những năm gần đây, sự bùng nổ của Trí tuệ nhân tạo (AI) ngày càng được công chúng quan tâm, ngày càng phổ biến trong mọi lĩnh vực, kể cả nông nghiệp. Các cải tiến từ loại công nghệ này đã mang lại nhiều lợi ích cho nghề nông, tạo ra hy vọng về một nền nông nghiệp tự động hóa thời 4.0.
Mô hình bản đồ của Agrisight, sử dụng AI nhằm dự đoán và tối ưu hóa việc thu hoạch và phân phối nông sản, được trưng bày tại Hội chợ quốc tế Nông nghiệp Pháp, ngày 27/02/2024, Paris, Pháp © Chi Phuong
Từ những 1950, 1960, các cải tiến về cơ khí, hóa học đã tạo ra một cuộc cách mạng nông nghiệp. Việc áp dụng thuốc trừ sâu, phân bón, giống cây năng suất cao…, cùng nhiều biện pháp khác cũng đã làm thay đổi đáng kể diện mạo nền nông nghiệp. Tuy nhiên, cùng lúc đó, nông nghiệp cũng bị cáo buộc là một trong những thủ phạm gây ra hiện tượng nóng lên toàn cầu, chịu trách nhiệm cho một phần ba lượng khí phát thải nhà kính (CO2 và metan). Thêm vào đó là tình trạng lạm phát, an ninh lương thực bị đe dọa ( ước tính 2 tỷ người trên thế giới không được tiếp cận thực phẩm đầy đủ). Chưa kể đến phong trào phản đối của giới nông dân Châu Âu từ nhiều tuần qua, bày tỏ bất bình vì điều kiện sinh kế không được bảo đảm.
Trong bối cảnh này, nhà nghiên cứu Asaf Tzachor, thuộc đại học Cambridge của Anh Quốc, cho rằng "mọi con mắt đang đổ dồn vào Trí tuệ nhân tạo". Với những tính năng đã chứng tỏ được trong những năm qua, loại công nghệ này có thể "mở ra một cuộc cách mạng nông nghiệp mới".
Tại Hội chợ Quốc tế Nông Nghiệp Paris lần thứ 60 (24/02-03/03/2024), lần đầu tiên một cuộc thi Hackathon (hack và marathon), cuộc thi phát triển phần mềm, được tổ chức, nhằm giải quyết các vấn đề trong nông nghiệp qua lập trình trong vòng 48 giờ. Và đây cũng là lần đầu tiên Trí tuệ nhân tạo tạo sinh (AI generative, loại trí tuệ có thể tạo ra các dữ liệu mới nhờ những dữ liệu có sẵn) "lấn sân" vào Hội chợ Nông nghiệp.
Với sự hỗ trợ của Mistral AI, công ty chuyên về trí tuệ nhân tạo của Pháp, 8 đội gồm gần 120 người đã tham gia thi đấu, tạo ra loại công cụ giải quyết các vấn đề mà những nông dân có mặt tại sự kiện nêu ra. Họ là những lập trình viên từ các tập đoàn lớn như Crédit Agricole, Groupama, hay từ các công ty công nghệ khởi nghiệp như Ombréa, Rizoa, Chouette Vision. Đội của Rizoa đã tạo ra một chatbot (robot trò chuyện) hỗ trợ nông dân đàm phán giá nông sản.
Trả lời RFI Tiếng Việt, cô Maguélone Parré-Haroche, đại diện của Rizoa, cho biết : "Chúng tôi bắt đầu từ những yêu cầu của nông dân, phàn nàn về những khó khăn trong việc bán các mặt hàng của họ với giá hợp lý, vào thời điểm thích hợp. Chúng tôi cũng biết rằng các bên mua hàng luôn có những thông tin hữu ích cho họ để mua với giá tốt. Do vậy, cần phải có không gian để trao đổi các dữ liệu. Đó là những thông tin khách quan, những dữ liệu thô và không thể tranh cãi, giúp nông dân có thể đàm phán giá với những chỉ số hữu ích". Còn đội của Groupama đã tạo ra Agri AI, một công cụ tính toán rủi ro khí hậu và biết tiên liệu một kế hoạch trồng trọt có khả thi hay không.
Có mặt tại Hội chợ vừa qua, OsFarm , một nền tảng tập hợp các công nghệ mới trong nông nghiệp, giới thiệu bảng điều khiển AgOpenGPS, giúp nông dân điều khiển máy kéo tự động trên nông trại. Mehdi Jaber, nhà sáng lập của Osfarm cho biết có những dữ liệu mà bảng điều khiển thu được và chưa từng được sử dụng. "Cuộc thi Hackaton này đã đưa ra nhiều ý tưởng thú vị về Trí tuệ nhân tạo và chúng tôi có thể tích hợp vào công cụ này, và cũng có thể ứng dụng vào nhiều loại máy móc khác".
Sự bùng nổ của các dự án về Trí tuệ nhân tạo trong những năm gần đây, ví dụ như ChatGPT, robot hội thoại, không chỉ giải đáp các câu hỏi trong nhiều lĩnh vực, mà còn có khả năng tạo ra văn bản hay hình ảnh, đã thúc đẩy ban tổ chức quan tâm nhiều hơn đến công nghệ này.
Đại diện ban tổ chức sự kiện, David Joulin, cho biết cuộc thi này giúp làm sáng tỏ hơn những lợi ích mà các công nghệ tiên tiến, đặc biệt là khả năng của Trí tuệ nhân tạo tạo sinh trong nông nghiệp. Ông David Joulin giải thích : "Hiện nay Trí tuệ nhân tạo đã được sử dụng khá nhiều trong nông nghiệp, ví dụ như trong việc chụp ảnh, phát hiện các loại sâu bệnh, hay phát hiện cỏ dại, tuy nhiên AI tạo sinh vẫn còn mới mẻ trong nông nghiệp. Kết quả của cuộc thi lập trình này đầy hứa hẹn cho tương lai nông nghiệp, bởi vì có những công việc cần 2 giờ làm việc có thể được giải quyết trong vòng vài giây. Chẳng hạn, một công cụ tự động đề xuất luân canh sản xuất, xác định được thu nhập và các rủi ro liên quan. Đó là điều mà tất cả nông dân đều đang yêu cầu. Có đội cũng đã tạo ra công cụ giúp tổng hợp các văn bản pháp lý liên quan đến các câu hỏi, chẳng hạn như nên áp dụng quy định nào cho thửa đất này hay lô đất khác".
Tính năng đa dạng của AI
David Joulin cũng là đồng sáng lập viên của La Ferme Digitale , một hiệp hội quy tụ nhiều start-up về công nghệ ứng dụng trong nông nghiệp. Ban đầu chỉ gồm 5 công ty khởi nghiệp, hiệp hội nay đã hội tụ hơn 150 doanh nghiệp, tuyển dụng 5000 nhân viên, đưa những loại công nghệ mới đến 200 000 nông dân Pháp.
Được thành lập vào năm 2021, HyperPlan là một trong những doanh nghiệp thuộc hiệp hội này. Phần mềm mà công ty cung cấp sử dụng những dữ liệu vệ tinh, dữ liệu về thời tiết, với sự hỗ trợ của AI, giúp phân tích, thiết lập báo cáo về những cây trồng nào đang và có thể phát triển ở đâu và khi nào, số lượng và chất lượng ra sao. Ruben Sabah, đồng sáng lập viên của Hyperplan, giải thích : "Chúng tôi sử dụng các thuật toán từ AI để phân tích các hình ảnh từ vệ tinh, ví dụ như xác định ranh giới các thửa đất, nhận diện loại cây trồng trên thửa đất đó trong tất xả các mùa, theo dõi chúng và đưa ra ước tính về sản lượng. Phần mềm này chủ yếu được sử dụng bởi các hợp tác xã nông nghiệp, hoặc các nhà công nghiệp thực phẩm. Họ có thể sử dụng để phân khúc theo vùng hoạt động của doanh nghiệp, giám sát tiềm năng sản xuất của vùng đó. Chúng tôi cũng có thể theo dõi hiệu suất thương mại hay tỷ lệ thị phần".
Ông David Joulin tin rằng các công nghệ tưởng chừng phức tạp nhưng lại rất dễ sử dụng sẽ có thể được nông dân nhanh chóng áp dụng trong nông trường, nhằm cải thiện điều kiện lao động cũng như phát triển nông nghiệp bền vững. Tại Pháp, trong vòng 5 năm, từ 2018 đến 2023, số máy móc phục vụ trong nông nghiệp đã tăng gấp 6 lần . Hiện 18 000 loại máy móc được sử dụng trong ngành chăn nuôi, và ba phần tư trong số đó là để vắt sữa bò tự động.
Hơn nữa, các khả năng của Trí tuệ nhân tạo trong nông nghiệp ngày càng đa dạng, đặc biệt là trong dự báo thời tiết, cung cấp dữ liệu về trạng thái đất, ngăn ngừa nguy cơ xuất hiện bệnh. Ngoài ra còn có những công cụ giúp giám sát cây trồng theo thời gian thực, điều chỉnh nhu cầu tưới tiêu, tính toán lượng phân bón hợp lý, theo dõi sức khoẻ của gia súc, quản lý trang trại… Không chỉ tại Pháp hay Châu Âu, mà tại Mỹ mà ngành nông nghiệp cũng thu hút sự chú ý của giới công nghệ, với khoảng 200 start-up về AI hoạt động trong lĩnh vực này.
Những rủi ro khó lường của AI
Thế nhưng, nhà nghiên cứu Asaf Tzachor , thuộc Trung tâm Nghiên cứu Rủi ro Hiện sinh, thuộc đại học Cambridge của Anh Quốc, cho rằng "cần phải thận trọng khi triển khai loại công nghệ này nhanh chóng và trên diện rộng". Nhà nghiên cứu nêu ra những rủi ro có thể làm tê liệt hệ thống cung ứng lương thực toàn cầu, đặc biệt là tấn công tin tặc. Ví dụ, xói mòn đất gây thiệt hại hơn 40 tỷ đô la ở Hoa Kỳ mỗi năm, do vậy nhiều công cụ được tạo ra để giám sát các lớp đất và bề mặt đất, giúp các trang trại ngăn ngừa thiệt hại. Tuy nhiên, các thiết bị này lại phụ thuộc vào mạng máy tính được kết nối với nhau, và như vậy rất dễ có thể bị phá hoại, bị tin tặc tấn công.
Ngoài ra còn có những rủi ro về lỗi kỹ thuật, lập trình, hoặc độ tin cậy của dữ liệu. Ví dụ, các hệ thống cảm biến không dây, được lắp đặt tại các trang trại, được thiết kế để nhận biết tình trạng của đất trồng, và đưa ra biện pháp cụ thể. Có thể các hệ thống này sẽ ưu tiên cho việc tăng năng suất hơn là bảo vệ sinh thái, như là sử dụng quá nhiều thuốc trừ cỏ, thuốc trừ sâu…, gây hại cho môi trường đất và nước.
Chi Phương
Nguồn : RFI, 06/03/2024
Việt Nam có nguồn nhân lực dồi dào, giỏi Toán, ham học hỏi và nếu có sự đầu tư và chuyển giao công nghệ của Nvidia, Việt Nam có thể trở thành trung tâm trí tuệ nhân tạo lớn trong khu vực và trên thế giới, một chuyên gia trong ngành nói với VOA.
Ông Jensen Huang là chủ tịch kiêm tổng giám đốc Tập đoàn Nvidia
Nvidia là tập đoàn sản xuất chip lớn nhất thế giới có trụ sở ở Mỹ với giá trị vốn hóa gần 1.200 tỷ đô la. Hãng này sản xuất ra những con chip đóng vai trò then chốt trong việc phát triển trí tuệ nhân tạo. Lãnh đạo tập đoàn này, ông Jensen Huang, mới đây đã có chuyến công tác Việt Nam và đã tiếp xúc Thủ tướng Phạm Minh Chính hôm 10/12. Tại đây, ông Huang nói rằng ông muốn đưa Việt Nam trở thành một ‘cứ điểm’ toàn cầu của hãng, trang mạng VnExpress tường thuật.
Còn trong buổi tọa đàm về cơ hội cho Việt Nam trong ngành công nghiệp bán dẫn và trí tuệ nhân tạo ở Hà Nội hôm 11/12, ông Huang được trang mạng này dẫn lời cho biết Nvidia sẽ hợp tác với các đối tác trong nước để phát triển hạ tầng trí tuệ nhân tạo, tức AI.
"Người Việt Nam rất giỏi toán, có năng lực phần mềm tốt và đang có vị trí tốt để phát triển bán dẫn, trí tuệ nhân tạo. Nvidia xác định Việt Nam là thị trường quan trọng nên đã đầu tư 250 triệu đô la", ông Huang được dẫn lời nói.
Ông cho biết ‘cứ điểm’ của Nvidia ở Việt Nam sẽ ‘thu hút nhân tài khắp thế giới’ và góp phần xây dựng hệ sinh thái bán dẫn và trí tuệ nhân tạo tại Việt Nam.
Về phần mình, Thủ tướng Chính đã đề nghị Nvidia hỗ trợ Việt Nam xây dựng, thực hiện chiến lược bán dẫn quốc gia và sẽ lập tổ công tác thúc đẩy các thỏa thuận hợp tác giữa hai bên do ông đứng đầu.
Nvidia đang là đối tác của nhiều doanh nghiệp công nghệ lớn của Việt Nam như Viettel, FPT, Vingroup… với doanh thu mỗi năm khoảng 500 triệu đô la, theo trang mạng VnEconomy.
‘Ít cơ hội cho bán dẫn’
Khi được VOA hỏi về những thỏa thuận hợp tác với Nvidia, ông Đỗ Cao Bảo, đồng sáng lập, cựu phó Tổng giám đốc và giờ là thành viên Hội đồng quản trị FPT, nói đó là bí mật kinh doanh của FPT nên không thể tiết lộ.
Ông Bảo bày tỏ hy vọng vào tiềm năng hợp tác với Nvidia trong lĩnh vực trí tuệ nhân tạo, đồng thời cho rằng trong lĩnh vực bán dẫn, cơ hội hợp tác ‘không nhiều’.
Theo lời giải thích của ông thì mặc dù vốn hóa của Nvidia vượt trội các hãng bán dẫn khác nhưng doanh thu ‘chưa bằng một nửa TSMC của Đài Loan hay Samsung của Hàn Quốc’.
"Nvidia không trực tiếp sản xuất ra chip mà 100% là đi thuê các công ty Đài Loan, Hàn Quốc làm cho họ", ông Bảo nói với VOA. "Chưa kể công nghệ chip của Nvidia là cao hơn".
"Khả năng công việc Nvidia giao ra nước ngoài có trình độ sản xuất thấp như Việt Nam là ít hơn hẳn", ông nói thêm và cho biết nếu có tham gia sản xuất chip thì cơ hội hợp tác với các hãng bán dẫn khác lớn hơn Nvidia.
Ông cho rằng Việt Nam không thể chen chân vào thay thế chuỗi cung ứng đã được Nvidia thuê sản xuất chip cho họ mà ‘chỉ là tham gia vào công đoạn thiết kế, kiểm thử hay đóng gói’.
"Họ đã có quy trình với những nhà máy rất lớn khắp toàn cầu, có quy trình, có dây chuyền rất lớn rồi mà bây giờ mình mới chen chân vào thì cơ hội không có", ông nói.
Chưa kể đối với các chip công nghệ cao, Nvidia ‘có thể không muốn chuyển sản xuất ra bên ngoài mà chỉ làm ở bên trong nước Mỹ’, cũng theo lời cựu phó Tổng giám đốc FPT.
"Nếu bây giờ Việt Nam đi vào sản xuất gia công (chất bán dẫn) thì giá trị gia tăng không cao", ông nói thêm.
Hiện tập đoàn Intel của Mỹ đang vận hành một cơ sở sản xuất thử nghiệm và lắp ráp chip tại Thành phố Hồ Chí Minh, còn hãng Amkor có trụ sở tại Arizona, đang xây dựng nhà máy trị giá 1,6 tỷ đô la ở Bắc Ninh, trong khi Synopsis và Marvell Technology đang thành lập các trung tâm thiết kế chất bán dẫn tại Việt Nam.
Hợp tác giúp Việt Nam phát triển kinh tế theo hướng đổi mới sáng tạo và đưa Việt Nam vào chuỗi cung ứng chất bán dẫn toàn cầu là một trong những nội dung chính của quan hệ Đối tác chiến lược toàn diện Mỹ-Việt mà Tổng thống Joe Biden đã cùng các lãnh đạo Việt Nam nâng cấp hôm 10/9.
Trung tâm AI
Tuy nhiên, ông Đỗ Cao Bảo cho rằng Việt Nam có tiềm năng hợp tác lớn với Nvidia về trí tuệ nhân tạo.
"Người Việt có thế mạnh là học hỏi công nghệ mới rất là nhanh. Người Việt có thể nhanh chóng học được và tiếp cận trình độ thế giới và không thua kém các đối thủ ở các nước khác", ông chỉ ra và nói rõ Việt Nam sẽ không theo kịp trình độ các nước phát triển mà chỉ cạnh tranh với các đối thủ như Malaysia, Philippines hay Ấn Độ, các nước cũng có mục tiêu giống Việt Nam.
Ngoài ra, có truyền thống học Toán và giỏi Toán là một thế mạnh của người Việt trong ngành Trí tuệ nhân tạo vốn có nền tảng là Toán. Ông Bảo cho biết người Việt luôn nằm trong tốp đầu các cuộc thi Toán quốc tế.
Cái mà Việt Nam cần ở Nvidia, theo ông Bảo, là họ đặt máy chủ lớn, có tốc độ xử lý cao, xây dựng trung tâm dữ liệu ở Việt Nam và chuyển giao hệ thống học sâu (deep learning) thì Việt Nam có thể trở thành trung tâm trí tuệ nhân tạo thu hút nhân tài khắp nơi trên thế giới.
"Nếu Việt Nam có cơ sở hạ tầng trí tuệ nhân tạo tốt thì có thể thu hút nguồn lực thế giới đến làm việc".
Khi đó, Việt Nam có thể sản xuất ra các sản phẩm trí tuệ nhân tạo phục vụ cho khu vực và thế giới, ông nói thêm.
Ông Bảo cho biết máy chủ lớn có năng lực mạnh như vậy ‘chỉ có Nvidia có’ và ‘tốn hàng tỷ đô la. "Tiền ở đâu để đầu tư, Nvidia hay Chính phủ Việt Nam hay doanh nghiệp Việt Nam bỏ ra hay cả ba bên cùng góp vốn là vấn đề cần phải bàn", ông nói thêm.
Hơn nữa, đối với công nghệ tối tân như vậy thì ‘có thể Việt Nam phải xin phép Chính phủ Mỹ’ thì mới được đưa máy chủ vào, cũng theo lời ông Bảo.
Một chỗ nữa mà Nvidia có thể giúp đỡ Việt Nam là đào tạo nguồn nhân lực. Ông Đỗ Cao Bảo cho rằng Nvidia có thể giúp Việt Nam xây dựng chương trình đào tạo để tiếp cận các công nghệ hiện đại nhất, cung cấp môi trường để sinh viên có thể thực hành, và gửi các chuyên gia trí tuệ nhân tạo hàng đầu sang Việt Nam để giảng dạy cho sinh viên.
Ông dẫn ra mục tiêu của ông Huang nói là ‘hai bên phải phấn đấu để có được 1 triệu kỹ sư’ về trí tuệ nhân tạo, không chỉ ở Việt Nam mà còn nhân lực đến từ các nước khác, để nhấn mạnh rằng ‘nhu cầu nhân lực của Việt Nam là rất cấp thiết’.
Khi được hỏi tại sao ông Jensen Huang lại quan tâm đến Việt Nam trong khi các nước khác trong khu vực cũng muốn phát triển trí tuệ nhân tạo, ông Bảo nói mặc dù năng lực sản xuất của Việt Nam kém hơn Nhật Bản hay Đài Loan rất nhiều nhưng nguồn lực Việt Nam nhiều hơn.
Ông chỉ ra Việt Nam có dân số đông gần 100 triệu dân, đa phần là dân số trẻ, ham học hỏi, nhiều gấp nhiều lần Malaysia hay Đài Loan trong khi dân số Nhật Bản đang suy giảm và lão hóa.
"Việt Nam có dân số đông, còn trẻ lại đang rất khát khao làm giàu cho bản thân, cho công ty. Họ sẵn sàng làm việc rất chăm chỉ", ông nói và cho biết nhiều thanh niên Việt Nam ‘sẵn sàng làm việc 7 ngày một tuần, mỗi ngày làm việc 12 tiếng’.
Khi được hỏi những phát ngôn của ông Jensen Huang khi ở Việt Nam về ‘quê hương thứ hai’ hay ‘cứ điểm toàn cầu’ của Nvidia có phải là ‘lời lẽ xã giao’ hay không, ông Bảo nói : "Với một doanh nhân thành công lớn thì người ta không bao giờ nói cái gì mà sau này phát hiện ra là nói xạo".
"Có lẽ đó là mong muốn thật sự của ông Jensen nhưng có thành hiện thực hay không thì phải cần nỗ lực từ cả hai phía".
Nguồn : VOA, 16/12/2023
Các mạng xã hội lớn xóa nội dung "chống Nhà nước" Việt Nam
RFA, 06/10/2023
Các mạng xã hội lớn gồm YouTube, TikTok và Facebook trong khoảng thời gian chỉ một tháng đã xóa gần 800 bài đăng có nội dung bị cơ quan chức năng Việt Nam cho là "chống Nhà nước" hay "không trung thực".
YouTube xóa chừng 380 video, Facebook xóa hơn 360 bài đăng ; TikTok xóa hơn 30 đường dẫn từ giữa tháng tám đến giữa tháng 9. Reuters
Mạng báo Thanh Niên loan tin vừa nêu ngày 6/10 dẫn nguồn từ Bộ Thông tin- Truyền thông Việt Nam. Cụ thể, YouTube xóa khoảng 380 video, Facebook xóa hơn 360 bài đăng ; TikTok xóa hơn 30 đường dẫn từ giữa tháng tám đến giữa tháng chín.
Nội dung bị xóa được nói là "không trung thực, tiêu cực… chống lại đảng, nhà nước, tổ chức, cá nhân…, xúc phạm lãnh tụ".
AFP cũng loan tin với nhận định rằng chính phủ do đảng cộng sản duy nhất lãnh đạo tại Việt Nam không dung thứ bất đồng và những hạn chế đối với các mạng xã hội được sử dụng nhằm giới hạn quyền tự do biểu đạt. Toàn bộ truyền thông bị đặt dưới sự kiểm soát của Nhà nước và những tiếng nói chỉ trích trên mạng bị thường xuyên theo dõi.
Vào ngày thứ năm 5/10, Bộ Thông tin- Truyền thông Việt Nam công bố kết luận kiểm tra toàn diện suốt bốn tháng qua đối với TikTok. Theo đó quy trình kiểm duyệt nội dung của mạng xã hội này bị cho là chưa hiệu quả, bỏ qua một số nội dung vi phạm luật phát Việt Nam.
AFP có yêu cầu TikTok, Meta- hãng mẹ của Facebook, và Google- chủ kênh YouTube, bình luận về tin vừa nêu ; nhưng chưa nhận được trả lời.
Hồi năm 2020, tổ chức Ân Xá Quốc tế (Amnesty International) công bố phúc trình với cảnh báo Facebook và Google nhanh chóng trở thành những công cụ "phi nhân quyền" tại Việt Nam. Tổ chức này cáo buộc các hãng lớn này hỗ trợ cơ quan chức năng kiểm duyệt các tiếng nói đối lập ôn hòa và bày tỏ chính kiến tại Việt Nam.
Nguồn : RFA, 06/10/2023
****************************
Tự do internet 2023 : Sức mạnh đàn áp của Trí tuệ nhân tạo
RFA, 04/10/2023
Hôm 4/10/2023, Freedom House, một think tank ở Washington DC, tổ chức ra mắt báo cáo "Tự do Internet 2023 : Sức mạnh đàn áp của Trí tuệ nhân tạo". Việt Nam là một trong những trường hợp được khảo sát với các quan ngại về việc đàn áp trên mạng.
Reuters
Báo cáo khảo sát giai đoạn từ tháng 6/022 đến tháng 5/2023 ở 70 quốc gia, chiếm khoảng 80% lượng người dùng internet toàn cầu. Theo báo cáo này, nhìn chung, tự do internet toàn cầu đã suy giảm năm thứ 13 liên tiếp. Có những trường hợp đàn áp mạnh mẽ như Iran đã đóng cửa dịch vụ internet, chặn WhatsApp và Instagram. Miến Điện thậm chí còn "vượt qua" Trung Quốc trong việc đàn áp tự do trên môi trường internet. Philippines giai đoạn Tổng thống Duterte sắp mãn nhiệm đã sử dụng luật chống khủng bố để chặn các trang tin chỉ trích chính quyền của mình.
Trả lời câu hỏi của RFA tại sự kiện ra mắt báo cáo 2023, nhà nghiên cứu cấp cao tại Freedom House là Kian Vesteinsson cho biết Freedom House đánh giá Việt Nam chỉ đạt 22 điểm trên thang điểm 100 về quyền tự do Internet. Với điểm số này, Việt Nam bị xếp hạng là "không tự do".
Năm 2022, Việt Nam cũng ở thứ hạng tương tự : 22/100 điểm.
"Dư luận viên" không phải là sản phẩm riêng của Việt Nam. Theo báo cáo, trên thế giới có ít nhất 47 chính phủ đã triển khai các "dư luận viên" (commentators) để thao túng các cuộc thảo luận trực tuyến theo hướng có lợi cho chính quyền. Con số này gấp đôi so với một thập kỷ trước.
Trong bối cảnh đó, Trí tuệ nhân tạo (AI) có nguy cơ làm cho các chiến dịch sản xuất và phát tán thông tin sai lệch lên trực tuyến trở nên mạnh mẽ hơn. Các công cụ dựa trên AI có thể tạo ra văn bản, âm thanh, hình ảnh, video một cách nhanh chóng và dễ dàng. Theo báo cáo, có ít nhất 16 chính phủ trên thế giới đã sử dụng công nghệ mới này để tạo ra các thông tin sai lệch để gieo rắc nghi ngờ, bôi nhọ đối thủ hoặc lèo lái các cuộc tranh luận của công chúng trên mạng.
Báo cáo chỉ ra rằng các "điểm nóng" do do nội dung được tạo ra bởi AI thường xuất hiện trong những thời điểm chính trị nhạy cảm như bầu cử hoặc các cuộc khủng hoảng. Báo cáo dẫn ra ví dụ hồi tháng 5, 2023, cựu thủ tướng Pakistan là Imran Khan đã chia sẻ một video được tạo ra bởi AI về hình ảnh một phụ nữ dũng cảm đối đầu với cảnh sát. Đó là thời điểm ông Khan và chính quyền đương nhiệm đang leo thang xung đột. Bằng cách phát tán một video do AI tạo ra như vậy, ông ta truyền đi thông điệp rằng "phụ nữ Pakistan ủng hộ tôi". Một trường hợp khác xảy ra ở Nigeria, một đoạn âm thanh do AI tạo ra, ám chỉ một ứng viên tổng thống có kế hoạch gian lận bỏ phiếu. Những sản phẩm như vậy có nguy cơ gây ra thù hận giữa các đảng phái và khắc sâu nghi ngờ của người dân về tính liêm chính của hệ thống bầu cử. Ở Mỹ gần đây cũng đã xuất hiện nhiều sản phẩm truyền thông có tính bôi nhọ đối thủ chính trị được tạo ra bởi AI như vậy.
AI cũng giúp các chính quyền độc tài nâng cao năng lực kiểm duyệt. Những hệ thống giám sát tinh vi bằng công nghệ cao có thể giúp họ nhanh chóng truy lùng các dấu hiệu bất đồng chính kiến trên mạng xã hội. Họ có thể kết hợp Dữ liệu lớn (Big data) với tính năng quét khuôn mặt để xác định và theo dõi những người biểu tình ủng hộ dân chủ. Các chính quyền cũng đang nỗ lực làm cho các công ty cung cấp ứng dụng phải tuân thủ hoặc tăng cường hệ thống kiểm duyệt của mình.
Khung pháp lý ở ít nhất 21 quốc gia bắt buộc hoặc khuyến khích các nền tảng kỹ thuật số triển khai học máy để loại bỏ những phát ngôn mà chính quyền không ưa thích về chính trị, xã hội và tôn giáo. Tuy nhiên, AI vẫn chưa thay thế hoàn toàn các phương pháp kiểm soát thông tin xưa cũ. Có đến 41 chính phủ được khảo sát vẫn áp dụng phương pháp cũ là chặn các trang web có nội dung lành mạnh, đúng đắn, cần được bảo vệ theo tiêu chuẩn tự do biểu đạt trong luật nhân quyền quốc tế.
Ngay cả ở những quốc gia có môi trường xã hội và chính trị dân chủ hơn như Hoa Kỳ và một số nước Châu Âu, các chính phủ đang cân nhắc áp đặt những chế tài đối với quyền truy cập vào một số trang web hoặc nền tảng truyền thông mạng xã hội. Một số đã thực thi điều đó.
Báo cáo nhắc đến việc Việt Nam lo ngại người dân sử dụng Chat GPT để tạo ra những nội dung "xuyên tạc", "bôi nhọ", "chống nhà nước". Bước đi này của Việt Nam cũng tương tự như Trung Quốc cấm các tập đoàn công nghệ nước này như Tencent và Ant Group tích hợp các công cụ của Chat GPT và các công cụ tương tự. Hãng Apple của Mỹ đã xóa hơn 100 ứng dụng tương tự như ChatGPT khỏi cửa hàng ứng dụng Trung Quốc để tuân thủ các quy định của nước này.
Theo báo cáo, ở những nước độc tài, hệ thống kiểm duyệt sử dụng công nghệ AI có thể "đóng lại những khoảng trống ít ỏi còn lại" của quyền tự do bày tỏ ý kiến trên mạng. Báo cáo cho biết :
"Chính phủ Việt Nam đã áp đặt các biện pháp kiểm soát chặt chẽ trên các nền tảng kỹ thuật số để chế tài những người bất đồng chính kiến, hạn chế việc đưa tin độc lập và các hình thức phát ngôn chính trị - xã hội khác. Ví dụ, các nhà chức trách Việt Nam được cho là đã buộc Meta phải loại bỏ mọi lời chỉ trích đối với các quan chức Đảng cộng sản Việt Nam cụ thể trên nền tảng mạng xã hội Facebook".
Các chuyên gia cũng nhấn mạnh những quy định mà Việt Nam thông qua vào tháng 8 năm 2022 đã trao quyền cho Bộ Công an chặn các nền tảng mạng xã hội không tuân thủ yêu cầu xóa nội dung "độc hại" trong vòng một ngày, kể từ ngày được thông báo. Họ cho rằng điều đó sẽ đẩy nhanh việc xóa nội dung trên diện rộng với tốc độ rất nhanh. Tốc độ như vậy chỉ có thể đạt được thông qua công nghệ tự động hóa được hỗ trợ bởi AI. Mặt khác, các nhà chức trách Việt Nam đã yêu cầu rõ ràng rằng các doanh nghiệp công nghệ phải sử dụng AI để loại bỏ cái gọi là nội dung "độc hại".
Theo báo cáo, không chỉ ở Việt Nam, ngay cả những chính phủ có năng lực công nghệ kém hơn, các biện pháp như vậy cũng đang ngày càng phổ biến.
Phát biểu tại sự kiện ra mắt báo cáo, các chuyên gia của Freedom House cho rằng các chính phủ và người dân vừa phải bảo đảm quyền tự do Internet vừa phải chống việc sản xuất tin giả trên môi trường trực tuyến.
Các chuyên gia cho rằng để bảo vệ quyền tự do Internet, những người ủng hộ dân chủ nên thiết lập các tiêu chuẩn mạnh mẽ dựa trên nhân quyền, tính minh bạch và trách nhiệm giải trình. Các tiêu chuẩn này cần được áp dụng cho cả các chủ thể nhà nước và phi nhà nước tham gia vào phát triển hoặc triển khai các công cụ AI.
Mặt khác, theo các nhà nghiên cứu, các quốc gia dân chủ cần trao cho các tổ chức xã hội dân sự vai trò dẫn đầu trong việc phát triển, xây dựng chính sách mới và cung cấp cho họ các nguồn lực họ cần để giám sát các hệ thống AI mới. AI có khả năng gây hại đáng kể, nhưng bằng cách đó, các quốc gia dân chủ có thể làm cho AI đóng vai trò bảo vệ các giá trị tự do.
Nguồn : RFA, 04/10/2023
Báo động về những nguy cơ của trí tuệ nhân tạo đối với nhân loại
Các ứng dụng về trí tuệ nhân tạo đã có từ lâu, nhưng kể từ khi ứng dụng nổi tiếng ChatGPT được tung lên mạng vào tháng 11/2022, công chúng và các doanh nghiệp bắt đầu quan tâm đến cái gọi là trí tuệ nhân tạo tạo sinh (generative), tức là có thể tự tạo ra các nội dung : văn bản, hình ảnh, âm thanh, video, như con người, thậm chí còn nhanh hơn con người rất nhiều.
Ứng dụng ChatGPT trên màn hình một điện thoại iPhone tại một cửa hàng ở New York, Hoa Kỳ, ngày 18/05/2023. AP - Richard Drew
Phát triển với tốc độ chóng mặt
Đúng là các ứng dụng trí tuệ nhân tạo hiện nay đang được phát triển với tốc độ chóng mặt, với những khả năng suy nghĩ như con người ngày càng hoàn thiện và như vậy là trong tương lai có thể thay thế con người trong rất nhiều ngành nghề.
Như ta đã thấy với ChatGPT của công ty OpenAI, ứng dụng này có khả năng viết những bài luận văn rất sâu sắc, độc đáo, biết làm những bài thơ tuyệt tác và có thể dịch mọi thứ tiếng chỉ trong vài giây.
Đây là một tiến bộ khoa học vô cùng to lớn, hỗ trợ cho nhân loại rất nhiều, nhưng cũng đang gây lo ngại ngày càng nhiều. Ngày 30/05/2023, một nhóm bao gồm các nhà doanh nghiệp và các chuyên gia đã ra một tuyên bố trên mạng cảnh báo về nguy cơ "tận diệt" đối với nhân loại do sự bùng nổ nhanh chóng của trí tuệ nhân tạo. Bản tuyên bố được đăng trên trang web của Center for AI Safety (Trung tâm về an toàn trí tuệ nhân tạo), một tổ chức bất vụ lợi, đặt trụ sở tại Hoa Kỳ.
Tuyên bố của họ nhấn mạnh, việc phòng chống các nguy cơ của trí tuệ nhân tạo phải được xem là một ưu tiên đối với thế giới, ngang tầm với các nguy cơ khác, như các đại dịch hay chiến tranh hạt nhân.
Điều đáng nói là trong số các chuyên gia ký tên vào bản tuyên bố nói trên có cả Sam Atman, người sáng chế ra ứng dụng trí tuệ nhân tạo được sử dụng phổ biến nhất hiện nay Chat GPT. Chính ông Atman khi ra điều trần trước một ủy ban của Quốc hội Mỹ vào giữa tháng 5 đã cho rằng các chính phủ cần phải khẩn cấp can thiệp để "hạn chế các nguy cơ" liên quan đến công nghệ trí tuệ nhân tạo.
Cha đẻ của trí tuệ nhân tạo cũng lo ngại
Cùng ký tên vào tuyên bố còn có Geoffrey Hinton, được xem là một trong những cha đẻ của trí tuệ nhân tạo. Vào tháng đầu tháng 5, Hinton đã rời bỏ chức vụ của ông trong tập đoàn Internet Google sau khi cảnh báo về các nguy cơ của trí tuệ nhân tạo.
Trên nhật báo The New York Times vào lúc đó, ông Hilton đã cho rằng những tiến bộ trong lĩnh vực trí tuệ nhân tạo đang đặt ra những nguy cơ sâu rộng đối với xã hội và nhân loại.
Trước đó, vào tháng 3, nhà tỷ phú Elon Musk, một trong những người sáng lập công ty OpenAI, cùng với hàng trăm chuyên gia thế giới đã yêu cầu nên tạm ngưng 6 tháng các nghiên cứu mới về các ứng dụng trí tuệ nhân tạo, vì họ cũng nhận thấy lĩnh vực này chứa đựng nhiều "nguy cơ to lớn đối với nhân loại".
Chỉ cần đưa ra một ví dụ nhỏ : Vào giữa tháng 5 vừa qua, một bức ảnh giả được tạo ra từ một ứng dụng trí tuệ nhân tạo, chụp cảnh một vụ nổ ở Lầu Năm Góc, đã nhanh chóng được được phát tán rộng rãi trên mạng xã hội Twitter, khiến các thị trường chứng khoán bị xáo trộn trong 10 phút, trước khi bộ Quốc Phòng lên tiếng cải chính là Lầu Năm Góc không hề bị tấn công.
Trí tuệ nhân tạo và "fake news" mùa bầu cử
Bản thân người sáng chế ChatGPT, Sam Altman trong thời gian qua đã liên tục cảnh báo là trí tuệ nhân tạo có thể gây nhiều thiệt hại nghiêm trọng cho thế giới, chẳng hạn như qua việc thao túng các cuộc bầu cử.
Trước mắt, trí tuệ nhân tạo đang làm xáo trộn chính trường nước Mỹ trước cuộc bầu cử tổng thống vào năm 2024, rất có thể là vẫn giữa hai đối thủ Donald Trump và Joe Biden.
Chính trí tuệ nhân tạo đã được sử dụng để tạo ra bức ảnh chụp Trump bị cảnh sát bắt giữ giống như thật, gây xôn xao dư luận trong một thời gian. Hay bịa ra một băng ghi âm Trump và Biden chửi nhau tơi tả. Chưa hết : Cũng trên các mạng đã xuất hiện một video nêu bật tương lai "kinh hoàng" của nước Mỹ nếu Biden tái đắc cử. Tác giả không ai khác hơn là trí tuệ nhân tạo.
Các chuyên gia đang rất lo ngại là trong mùa bầu cử sắp tới tại Hoa Kỳ, các tin giả do trí tuệ nhân tạo sản xuất sẽ tràn ngập, vì đây sẽ là cuộc bầu cử đầu tiên mà trí tuệ nhân tạo được sử dụng phổ biến. Cả hai phe Dân Chủ và Cộng Hòa chắc chắn sẽ nhờ đến trí tuệ nhân tạo để, hoặc là thu hút thêm cử tri, hoặc "sản xuất" các truyền đơn, các bài diễn văn, một cách nhanh chóng, rẻ tiền, mà lại không bó buộc về pháp lý.
Nhưng nguy hiểm hơn cả, theo ông Joe Rospars, người sáng lập công ty tư vấn tranh cử Blue State, trả lời hãng tin AFP, với công nghệ trí tuệ nhân tạo, những kẻ xấu có thêm công cụ để gieo rắc hận thù, gây nhiễu thông tin với cả báo chí và công chúng. "Đại dịch" fake news vốn đã gây nhiều tác hại trong chiến dịch tranh cử của Donald Trump sẽ càng trầm trọng hơn trong mùa bầu cử tổng thống Mỹ năm tới.
Đưa trí tuệ nhân tạo vào khuôn khổ pháp lý
Những hiểm họa mà trí tuệ nhân tạo đặt ra đang buộc các lãnh đạo nhiều nước trên thế giới phải cấp tốc tìm cách đối phó.
Liên Hiệp Châu Âu hiện đang muốn trở thành định chế đầu tiên trên thế giới đưa ra một khuôn khổ pháp lý để hạn chế những tác hại của trí tuệ nhân tạo. Cách đây hai năm, Ủy Ban Châu Âu đã đề nghị một dự luật theo hướng này.
Trọng tâm của dự luật về trí tuệ nhân tạo là một loạt các quy định chỉ áp dụng đối với các ứng dụng mà chính các công ty cho là "nguy cơ cao" dựa trên các tiêu chuẩn của nhà lập pháp. Đối với Ủy Ban Châu Âu, nói chung đó là toàn bộ những ứng dụng được dùng trong những lĩnh vực nhạy cảm như cơ sở hạ tầng thiết yếu, giáo dục, nhân sự, giữ gìn trật tự hay quản lý nhập cư.
Vấn đề là tiến trình xem xét bởi các nước thành viên và Nghị Viện Châu Âu kéo dài quá lâu. Nếu luật có được thông qua trước cuối năm nay thì cũng phải chờ đến sớm nhất là cuối năm 2025, luật mới có hiệu lực.
Trong cuộc gặp tại Bruxelles hôm 24/05 vừa qua, ủy viên Châu Âu đặc trách công nghệ số Thierry Breton và chủ nhân tập đoàn Google Sundar Pichai đã đã đồng ý với nhau là không thể chờ cho đến khi luật của Liên Âu được ban hành, mà phải bàn ngay việc soạn thảo những quy định mới để đưa trí tuệ nhân tạo vào khuôn khổ. Các cuộc thảo luận sẽ được thực hiện với những công ty tự nguyện trong ngành phát triển ứng dụng trí tuệ nhân tạo.
Trong vấn đề này, Pháp là một trong những quốc gia đi đầu vì đã cùng với Canada tung ra Đối tác Thế giới về Trí tuệ Nhân tạo. Vận hành theo phương thức giống như Nhóm chuyên gia liên chính phủ về biến đổi khí hậu GIEC, đối tác này hiện quy tụ 28 quốc gia, có nhiệm vụ đưa ra những đánh giá khoa học và những khuyến cáo đến các chính phủ.
Hôm 23/05 vừa qua, tổng thống Emmanuel Macron đã tiếp Sam Atman, người sáng chế ra ChatGPT, tại điện Elysée để thảo luận với ông về những hướng phát triển trí tuệ nhân tạo trong tương lai cũng như về tầm quan trọng của việc đề ra các quy định luật lệ để bảo vệ người sử dụng và bảo vệ nền dân chủ trước những nguy cơ sử dụng trí tuệ nhân tạo một cách sai lạc.
Nhóm G7 nhập cuộc
Nhưng đây không còn là một vấn đề của riêng Châu Âu mà đã trở thành vấn đề của cả thế giới, mà trước hết là của những nước phát triển nhất.
Hôm thứ tư tuần này, 31/05/2023, Hoa Kỳ và Liên Hiệp Châu Âu đã mở một cuộc họp cấp cao về vấn đề này tại Lulea, Thụy Điển. Trước đó, bà Margrethe Vestager, ủy viên Châu Âu về cạnh tranh và cũng người đặc trách các vấn đề công nghệ trong Liên Hiệp Châu Âu, đã tuyên bố là Liên Âu và Hoa Kỳ sẵn sàng tăng cường hợp tác về trí tuệ nhân tạo nhằm đề ra các tiêu chuẩn tối thiểu trước khi các luật về lĩnh vực này được ban hành.
Tại cuộc họp thượng đỉnh ở Hiroshima vừa qua, các lãnh đạo nhóm G7 cũng đã thông báo sắp tới đây sẽ thành lập một "nhóm làm việc" về trí tuệ nhân tạo để thảo luận về việc ""sử dụng một cách có trách nhiệm" các công cụ này, cũng như thảo luận về các nguy cơ từ trí tuệ nhân tạo, trong đó có nguy cơ tin giả.
Thanh Phương
Nguồn : RFI, 03/06/2023
Liên Hiệp Châu Âu và Hoa Kỳ sẵn sàng tăng cường hợp tác về trí tuệ nhân tạo nhằm quy định các chuẩn mực tối thiểu trước khi thiết lập các luật lệ liên quan đến ngành này. Trong một cuộc họp thông tin vào hôm qua, 23/05/2023, bà Margrethe Vestager, Ủy Viên Châu Âu về cạnh tranh, chuyên trách công nghệ trong EUn đã thông báo như trên.
Ảnh minh họa ngày 04/05/2023 : Logo của Google, Microsoft và Alphabet và trí tuệ nhân tạo - AI. Reuters - DADO RUVIC
Trong thời gian qua, Hoa Kỳ và Liên Hiệp Châu Âu đã cố tìm cách tăng cường hợp tác công nghệ và thương mại, trong bối cảnh hai bên không có một thỏa thuận tự do mậu dịch song phương. Trí tuệ nhân tạo hiện là một trong những mảng hợp tác quan trọng, và sẽ là một chủ đề chính tại cuộc họp của Hội đồng Thương Mại và Công Nghệ EU-Hoa Kỳ tại Thụy Điển vào thứ Ba 30/05.
Đối với bà Margrethe Vestager, đồng thời là phó chủ tịch Ủy Ban Châu Âu, trong tình hình hiện nay, vấn đề đặt ra những khuôn khổ luật lệ cho trí tuệ nhân tạo đã trở nên "khẩn cấp".
Từ Bruxelles, Thông tín viên RFI Pierre Benazet giải thích :
"Các chuẩn mực kỹ thuật" được nhóm G7 đề nghị hôm thứ Bảy 20/05 vừa qua để giúp mạng internet tiếp tục được tin tưởng sẽ dẫn đến một thỏa thuận Liên Âu-Hoa Kỳ đầu tiên vào tuần tới nhằm thiết lập các quy tắc giám sát về sinh trắc học hoặc nhận dạng khuôn mặt.
Hoa Kỳ và Liên Hiệp Châu Âu dự trù một hệ thống luật lệ chung và vấn đề này sẽ là trọng tâm cuộc họp của Hội đồng Thương Mại và Công Nghệ Mỹ-EU vào thứ Ba tới đây. Cơ chế này đã trở thành một diễn đàn để Hoa Kỳ và Châu Âu thiết lập các quan hệ hợp tác mũi nhọn, để bù đắp cho sự thiếu vắng một hiệp định thương mại tự do giữa hai bên.
Mỹ và Liên Âu đều khẳng định hai bên có cùng quan điểm trong việc bảo vệ các hoạt động dân chủ trên internet. Hai bên đã ký thỏa thuận hợp tác nghiên cứu trong năm lĩnh vực sử dụng trí tuệ nhân tạo : Dự báo thời tiết và hiện tượng khí hậu khắc nghiệt, quản lý các kế hoạch ứng phó khẩn cấp, cải thiện ngành y tế và y học, tối ưu hóa mạng lưới điện và tối ưu hóa ngành nông nghiệp".
Trọng Nghĩa
‘Bố già AI’ rời Google, cảnh báo về các hiểm họa công nghệ
AP, VOA, 03/05/2023
Nhà nghiên cứu tiên phong và được mệnh danh là "Bố già của AI", Geoffrey Hinton, nghỉ việc tại Google để có thể tự do lên tiếng về mối nguy hiểm của công nghệ mà ông đã giúp tạo ra.
Geoffrey Hinton, "Bố già của AI", chụp ảnh trước trụ sở của Google ở Mountain View, California, ngày 25/3/2015.
Trong sự nghiệp nhiều chục năm của mình, công trình tiên phong của ông Hinton về học sâu và mạng thần kinh đã giúp đặt nền móng cho phần lớn công nghệ AI mà chúng ta thấy ngày nay.
Đã có một loạt các giới thiệu về AI trong những tháng gần đây. Công ty khởi nghiệp OpenAI có trụ sở tại San Francisco, công ty phát triển ChatGPT được Microsoft hậu thuẫn, đã tung ra mô hình trí tuệ nhân tạo mới nhất của mình, GPT-4, vào tháng Ba. Những công ty công nghệ khổng lồ khác đã đầu tư vào các công cụ cạnh tranh — bao gồm cả "Bard" của Google.
Ông Hinton nói với BBC rằng một số mối nguy hiểm của chatbot AI là "khá đáng sợ". "Bây giờ nó chưa thông minh hơn chúng ta nhưng sẽ chẳng bao lâu nữa đâu".
Trong một cuộc phỏng vấn với tờ MIT Technology Review, ông Hinton cũng chỉ ra "những kẻ xấu" có thể sử dụng AI theo những cách có thể gây tác động bất lợi cho xã hội — chẳng hạn như thao túng bầu cử hoặc xúi giục bạo lực.
Ông Hinton, 75 tuổi, cho biết ông đã nghỉ việc tại Google để có thể phát biểu cởi mở về những rủi ro tiềm ẩn khi không còn làm việc cho công ty công nghệ khổng lồ.
"Tôi muốn nói về các vấn đề an toàn của AI mà không phải lo lắng về sự ảnh hưởng tới hoạt động kinh doanh của Google", ông nói với MIT Technology Review. "Chừng nào tôi còn được Google trả tiền, thì tôi không thể làm điều đó".
Kể từ khi thông báo về sự ra đi của mình, ông Hinton đã khẳng định rằng Google đã "hành động rất có trách nhiệm" đối với AI. Ông nói với MIT Technology Review rằng cũng có "rất nhiều điều hay về Google" mà ông muốn nói đến — nhưng những nhận xét đó sẽ "đáng tin cậy hơn nhiều nếu tôi không còn ở Google nữa".
Google xác nhận rằng ông Hinton đã nghỉ hưu sau 10 năm giám sát nhóm Nghiên cứu của Google ở Toronto.
Trọng tâm các tranh cãi về AI là liệu các mối nguy hiểm là trong tương lai hay hiện tại. Một bên là các tình huống giả định về rủi ro tồn tại do máy tính thay thế trí thông minh của con người gây ra. Mặt khác là những lo ngại về công nghệ tự động đã được các doanh nghiệp và chính phủ triển khai rộng rãi và có thể gây ra những tác hại trong thế giới thực.
Bà Alondra Nelson, người đứng đầu Văn phòng Chính sách Khoa học và Công nghệ Tòa Bạch Ốc cho đến tháng 2, nói : "Dù tốt hay không, những gì chatbot đã làm là biến AI trở thành đề tài bàn tán cấp quốc gia và quốc tế không chỉ bao gồm các chuyên gia và nhà phát triển AI".
"AI không còn trừu tượng nữa, và tôi nghĩ chúng ta bắt đầu bàn về cách chúng ta muốn thấy một tương lai dân chủ và một tương lai không bóc lột với công nghệ như thế nào", bà Nelson nói trong một cuộc phỏng vấn vào tháng trước .
Một số nhà nghiên cứu AI từ lâu đã bày tỏ lo ngại về chủng tộc, giới tính và các hình thức thiên vị khác trong các hệ thống AI, bao gồm các mô hình ngôn ngữ dựa trên văn bản được đào tạo trên kho chữ viết khổng lồ của con người và có thể khuếch đại sự phân biệt đối xử tồn tại trong xã hội.
Bà Sarah Myers West, giám đốc điều hành của Viện AI Now phi lợi nhuận, cho biết : "Chúng ta cần lùi lại một bước và thực sự suy nghĩ xem nhu cầu của ai đang được đặt lên hàng đầu và là trung tâm trong cuộc thảo luận về rủi ro". "Những tác hại do các hệ thống AI gây ra ngày nay thực sự không được phân bổ đồng đều. Nó đang làm trầm trọng thêm các mô hình bất bình đẳng hiện có".
Ông Hinton là một trong ba nhà tiên phong về AI đã giành được Giải thưởng Turing vào năm 2019, một vinh dự được biết đến như là phiên bản giải Nobel của ngành công nghệ. Hai người chiến thắng khác, Yoshua Bengio và Yann LeCun, cũng bày tỏ lo ngại về tương lai của AI.
Ông Bengio, giáo sư tại Đại học Montreal, đã ký một bản kiến nghị vào cuối tháng 3 kêu gọi các công ty công nghệ đồng ý tạm dừng 6 tháng trong công cuộc phát triển các hệ thống AI mạnh mẽ, trong khi ông LeCun, nhà khoa học AI hàng đầu tại công ty mẹ của Facebook, Meta, đã đưa ra một cách tiếp cận lạc quan hơn.
(AP)
Nguồn : VOA, 03/05/2023
******************************
‘Cha đỡ đầu’ của AI cảnh báo về mối đe doạ từ chatbot sau khi nghỉ việc ở Google
BBC, 02/05/2023
Geoffrey Hinton, nhà khoa học máy tính được mệnh danh là "cha đỡ đầu của trí tuệ nhân tạo" đã nghỉ việc, cảnh báo về những mối nguy hiểm ngày càng gia tăng từ những phát triển trong lĩnh vực này.
Trí tuệ nhân tạo - Ảnh minh họa
Tuyên bố từ chức ở Google trong một lá thư gửi cho tờ New York Times, ông Hinton, 75 tuổi cho biết giờ đây ông rất hối hận về công việc của mình.
Trao đổi với BBC, nhà khoa học cho biết một số nguy cơ của chatbot AI "khá đáng sợ".
"Ngay bây giờ, tôi có thể nói chúng không thông minh hơn chúng ta. Nhưng tôi nghĩ là sẽ sớm thôi".
Nghiên cứu tiên phong của Tiến sĩ Hinton về học sâu (deep learning) và mạng lưới nơ-ron đã mở đường cho các hệ thống AI hiện tại như ChatGPT.
Nhưng nhà tâm lý học nhận thức kiêm nhà khoa học máy tính người Canada gốc Anh nói với BBC rằng chatbot có thể sớm vượt qua mức độ thông tin mà bộ não con người nắm giữ.
"Ngay bây giờ, những gì chúng ta đang thấy là những thứ như GPT-4 vượt một người về lượng kiến thức chung và lấn át hẳn họ về chặng đường dài. Về mặt lý luận, nó không tốt bằng, nhưng nó đã thực hiện được suy luận đơn giản.
"Và với tốc độ tiến bộ, chúng tôi dự trù mọi thứ sẽ cải thiện khá nhanh. Vì vậy, chúng ta cần phải lo lắng về điều đó".
Trong bài báo trên New York Times, Tiến sĩ Hinton đã đề cập đến "những kẻ xấu", những người sẽ cố gắng sử dụng AI cho "những điều xấu".
Khi được BBC yêu cầu phân giải thêm về điều này, ông đáp : "Đây chỉ là một tình huống xấu nhất, một tình huống ác mộng.
"Quý vị có thể tưởng tượng, ví dụ, một số kẻ xấu như [Tổng thống Nga Vladimir] Putin đã quyết định trao cho robot khả năng tạo ra các mục tiêu con của riêng chúng".
Nhà khoa học cảnh báo rằng điều này cuối cùng có thể "tạo ra các mục tiêu con như 'Tôi cần có thêm quyền lực'".
Ông nói thêm : "Tôi đã đi đến kết luận rằng loại trí thông minh mà chúng ta đang phát triển rất khác với loại trí thông minh mà chúng ta có.
"Chúng ta là những hệ thống sinh học còn đây là những hệ thống kỹ thuật số. Và sự khác biệt lớn là đối với các hệ thống kỹ thuật số, quý vị có nhiều bản sao của cùng một bộ trọng lượng, cùng một mô hình thế giới.
"Và tất cả những bản sao này có thể học mọi thứ một cách riêng biệt nhưng chia sẻ kiến thức với nhau tức thì. Vì vậy, giống như bạn có 10.000 người và bất cứ khi nào một người học được điều gì đó, mọi người sẽ tự động hiểu điều đó. Và đó là cách những chatbot này có thể hiểu biết vượt xa hơn bất kỳ con người nào".
Tiến sĩ Hinton cũng cho biết có một số lý do khác để nghỉ việc.
"Một là, tôi đã 75 tuổi. Vì vậy, đã đến lúc về hưu. Điều nữa là, tôi thực sự muốn nói một số điều tốt đẹp về Google. Và sẽ đáng tin hơn nếu tôi không còn làm việc cho Google".
Ông nhấn mạnh rằng ông không muốn chỉ trích Google và gã khổng lồ công nghệ đã "rất có trách nhiệm".
Trong một tuyên bố, nhà khoa học lãnh đạo của Google Jeff Dean cho biết : "Chúng tôi vẫn cam kết thực hiện một cách tiếp cận có trách nhiệm đối với AI. Chúng tôi không ngừng học hỏi để hiểu những rủi ro mới nổi cộm, đồng thời cũng mạnh dạn đổi mới".
Nguồn : BBC, 02/05/2023
*****************************
Bắc Kinh muốn nhồi chủ nghĩa xã hội vào trí tuệ nhân tạo
France24, Anh Vũ, RFI, 02/05/2023
Trung Quốc trở thành nước đầu tiên ban hành các quy định đưa vào khuôn khổ việc phát triển trí tuệ nhân tạo như dạng ChatGPT. Ưu tiên của nước này là làm sao để các tác nhân hội thoại tôn trọng các "giá trị cốt lõi của chủ nghĩa xã hội", một khái niệm vốn dĩ đã khó nắm bắt.
Ảnh minh họa : Tổng giám đốc nghiên cứu của tập đoàn Bách Độ, Trung Quốc, Robin Li thuyết trình về phát triển trí tuệ nhân tạo Bắc Kinh, ngày 04/07/2018. AP - Ng Han Guan
Trí tuệ nhân tạo (AI) theo kiểu ChatGPT liệu có hòa đồng được vào trong chủ nghĩa xã hội mang màu sắc Trung Quốc ? Câu hỏi này hàm chứa điều mà Bắc Kinh muốn. Hôm 26/04 vừa rồi, nhật báo Mỹ New York Times cho biết, chính quyền Trung Quốc vừa công bố các quy định mới để đưa vào khuôn khổ và tạo điều kiện phát triển công nghệ này với điều kiện phải tôn trọng chủ thuyết của chế độ Cộng sản.
Các biện pháp này, đã được trình lên các cấp cơ quan đảng Cộng Sản Trung Quốc hôm 11/04. Như vậy Trung Quốc là nước đầu tiên áp đặt các quy định cho lĩnh vực theo kiểu ChatGPT, công cụ hội thoại bằng trí tuệ thông minh do công ty OpenAI triển khai, đã gây tiếng vang lớn ngay khi xuất hiện.
Sợ trí tuệ nhân tạo chệch hướng
Bắc Kinh muốn có phản ứng nhanh nhất bởi "cũng giống như ở mọi nước, các lãnh đạo Trung Quốc đã hiểu rằng công nghệ này có thể tác động sâu rộng trong xã hội", Guangyu Qiao-Franco chuyên gia về công nghệ mới xuất hiện tại Trung Quốc thuộc Đại học Radboud (Hà Lan) nhận định.
Với một chế độ vốn rất muốn kiểm soát dân chúng như Bắc Kinh thì không thể có chuyện để các tác nhân thoại tự động được hoàn toàn tự do. Nhất là Bắc Kinh đã biết được phần mềm hội thoại tự động như vậy cho kết quả ra sao. Hồi tháng đầu năm năm 2022, ChatYua, công cụ của Trung Quốc tương tự như ChatGPT đã bị rút khẩn cấp ngay sau khi trả lời rằng nền kinh tế Trung Quốc đang "trong tình trạng tồi tệ" và rằng xung đột tại Ukraine là cuộc "chiến tranh xâm lược của Nga", trong khi mà Trung Quốc vẫn sử dụng lại cách gọi của Nga đó là "chiến dịch quân sự đặc biệt".
Những quy định mới nói trên là nhằm tránh trí tuệ nhân tạo đi chệch hướng. Cụ thể các công ty Trung Quốc triển khai các giải pháp thay thế cho ChatGPT phải bảo đảm là phần mềm của họ không tạo ra các nội dung kỳ thị, không xâm phạm quyền bảo vệ đời tư của người sử dụng internet, không truyền bá các thông tin giả, theo nhật báo South China Morning Post cho biết. Đó đều là những mối quan ngại của tất cả các chính phủ trên thế giới trước những thách thức mà trí tuệ nhân tạo đặt ra.
Nhưng điều 4 trong các quy định mới của Trung Quốc cũng hàm chứa nghĩa vụ phải thiết kế các công cụ trí tuệ nhân tạo biết «tôn trọng các giá trị cốt lõi của chủ nghĩa xã hội ( theo kiểu Trung Quốc)". Liệu đây có phải là một yêu cầu đưa trước tác của Mao Trạch Đông vào hộp thoại tự động (chatbot) ?
Thực ra, theo chuyên gia Guangyu Qiao-Franco, " có một danh sách các khái niệm thuộc các giá trị cốt lõi của chủ nghĩa xã hội". Người ta thấy ở đó các khái niệm như dân chủ, thịnh vượng, bình đẳng, công bằng, yêu nước, ý thức nghĩa vụ hay giá trị lao động.
Chỉ là làm hài lòng Tập Cận Bình ?
Thực sự đây là một mớ thập cẩm những những giá trị lớn có thể được phần lớn các nước phương Tây chia sẻ. Nhưng từ đó rất khó để suy ra các quy tắc cần tuân theo về mặt phát triển các phần mềm cho một công cụ trí tuệ nhân tạo tương thích với cái "chủ nghĩa xã hội" đó. "Đúng là những khái niệm khá mơ hồ", Guanyu Qiao-Franco nhận thấy.
Theo chuyên gia về chính sách kinh tế và công nghiệp Trung Quốc Xin Sun, thực tế, "cần phải tạo khái niệm cho những giá trị cốt lõi của chủ nghĩa xã hội, như một khái niệm bao trùm giúp chế độ có được sự linh hoạt nhất định về những điều được phép hay không".
Trước sự phát triển nhanh chóng của một công nghệ như hội thoại trí tuệ nhân tạo, Bắc Kinh không biết bắt đầu kiểm duyệt từ đâu. Các "giá trị cốt lõi của chủ nghĩa xã hội" quá lờ mờ để có thể thích ứng trong mọi tình huống.
Việc dùng đến tham chiếu này khá là ngạc nhiên. Quả thực chính quyền đã ban hành các quy tắc về "quản trị đúng AI" vào năm 2019 và là một phần của "quy tắc đạo đức AI" vào năm 2021. Không có dấu hiệu nào về "giá trị cốt lõi của chủ nghĩa xã hội" trong hai trường hợp này.
Năm 2023, cơ quan quản lý quyết định định đi xa hơn. "Có thể họ lấy cảm hứng từ ông Tập Cận Bình, người hay dẫn ra các giá trị đó. Có thể đó là cách để cho lãnh đạo của họ thấy là họ học theo tấm gương của của ông", bà Guangyu Qiao-Franco nhận định.
Trong giả thuyết đó, AI sẽ tham gia vào ngày càng nhiều mảng của nền kinh tế đang chịu sự trở lại chi phối của ý thức hệ. Đó cũng đã là một trong những ưu tiên của chủ tịch Trung Quốc. Đây cũng là yếu tố không thuận lợi cho các công ty Trung Quốc đang muốn cạnh tranh với ChatGPT. Làm thế nào để tạo ra một công cụ AI "tương thích-xã hội" ? Chuyên gia Xin Sun cho rằng "trước hết phải tạo ra một bộ lọc ở đầu vào và đầu ra của phần mềm».
Chậm chân so với Hoa Kỳ ?
Sự kiểm duyệt kép này trước tiên sẽ biện minh cho việc sàng lọc thông tin từ cơ sở dữ liệu mà A.I sẽ rút ra để tìm câu trả lời. Sau đó, "có lẽ sẽ cần phải thiết lập một hệ thống xác minh các câu trả lời cuối cùng để đảm bảo rằng chúng không chứa bất kỳ điều gì trái với quy định", Xin Sun giải thích.
Vẫn còn bí ẩn lớn về những công cụ AI này. "Vấn đề là chúng ta hoàn toàn không biết tại sao những chiếc máy này lại chọn câu trả lời này thay vì một câu trả lời khác dựa trên dữ liệu mà chúng tôi cung cấp cho chúng", Joseph Sifakis, giám đốc nghiên cứu của Đại học Grenoble (Pháp) giải thích. Ông là người Pháp duy nhất được trao giải thưởng Turing ( một giải có thể gọi là Nobel về trí tuệ nhân tạo). Nói cách khác, không kỹ sư nào có thể đảm bảo 100% với đảng Cộng Sản Trung Quốc rằng chatbot của họ sẽ duy trì nghiêm ngặt trong khuôn khổ "giá trị cốt lõi của chủ nghĩa xã hội".
Các chủ công ty của Trung Quốc đề nghị phải được biết rõ ràng cái gì họ được làm cái gì không được làm. Khái niệm mập mờ xung quanh các "giá trị cốt lõi của chủ nghĩa xã hội" buộc các công ty phải tiến hành hết sức thận trọng. Điều này khiến cho họ có thể bị chậm chân trong cuộc cạnh tranh, đặc biệt là với các công ty Mỹ.
Như vậy chính quyền Trung Quốc tự đặt mình trước những mâu thuẫn của chính họ. Thực ra, trí tuệ nhân tạo nằm trong danh sách các lĩnh vực ưu tiên phát triển của Bắc Kinh trong cuộc tranh giành vị trí dẫn đầu thế giới. Thậm chí còn là nhiệm vụ trọng tâm bởi chính quyền "coi trí tuệ nhân tạo như là điện, tức là một ngành công nghệ giúp phát triển lĩnh vực ưu tiên khác chẳng hạn như tự động hóa hay công nghệ sinh học..." Chuyên gia Guangyu Qiao-Franco nhấn mạnh.
Vậy là với những quy định mới Bắc Kinh đã tự bắn vào chân mình. Nó có nguy cơ làm chậm cải tiến trong một lĩnh vực quan trọng. Nhưng đồng thời các nước khác cũng sẽ suy tính cách thức tốt nhất để thiết lập quy chế cho lĩnh vực này.
Chính quyền và các nhà chuyên môn của lĩnh vực này còn cần phải thống nhất với nhau thế nào là một tác nhân hội thoại tương thích với chủ nghĩa xã hội theo kiểu Trung Quốc. Đây sẽ là chủ đề của các cuộc tham khảo mà chính phủ dự định tiến hành với các tập đoàn Trung Quốc muốn lấn át ChatGPT. Ngoài Alibaba, Bách Độ (Baibu) hay Tencent, còn có rất đông những tập đoàn mạnh như thế.
(France24.com)
Anh Vũ biên dịch
Việt Nam sẽ tụt hậu nếu đi theo Trung Quốc kiểm duyệt AI trên mạng ?
Kian Vesteinsson, RFA, 17/03/2023
Trí tuệ nhân tạo (Artificial Intelligence, viết tắt là AI) đang nổi lên như một công nghệ mới có thể thay đổi đời sống con người ở nhiều lĩnh vực chủ chốt. Gần đây, Chat GPT, một sản phẩm AI trên mạng của công ty Open AI, thu hút được sự chú ý của người dùng internet toàn thế giới với những lợi ích mới mẻ mà nó mang lại.
Hôm 16/3/2023, Công ty Baidu của Trung Quốc ra mắt Ernie Bot cạnh tranh với Chat GPT. Theo Financial Times, cổ phiếu Baidu giảm vì Ernie Bot gây thất vọng. Reuters
Các cơ quan chức năng ở Việt Nam hiện mới chỉ phản ứng với những trò đùa của người dân bằng cách hỏi Chat GPT những câu hỏi chính trị gây cười để cho ra những câu trả lời gây cười. Trên báo Điện tử Chính phủ, một chuyên gia của Việt Nam cho rằng cần khai thác "mặt tích cực" của AI và cũng đưa ra một giải pháp với hy vọng có thể điều khiển những nội dung do AI tạo ra để hạn chế "mặt trái".
Trung Quốc từ lâu đã sử dụng công nghệ AI phục vụ cho hệ thống kiểm duyệt khổng lồ của mình. Và theo nhiều chuyên gia quốc tế theo dõi tình hình Trung Quốc, họ đã đi tới giai đoạn thao túng nội dung do AI có thể tạo ra, từ đó dẫn tới nguy cơ bóp méo môi trường internet toàn cầu. Một nước đang phát triển như Việt Nam không dễ có thể "copy" được hệ thống kiểm duyệt gắt gao của Trung Quốc, và nếu Việt Nam cố gắng làm như vậy, điều đó có thể dẫn Việt Nam tới nguy cơ tụt hậu, trở thành ốc đảo giữa một thế giới đang phát triển công nghệ mới AI. RFA trao đổi với ông Kian Vesteinsson, chuyên gia cao cấp tại Freedom House, một think tank ở Washington DC, về vấn đề này. Một trong những vấn đề Kian Vesteinsson chuyên nghiên cứu là mối quan hệ giữa dân chủ và các công nghệ mới.
RFA : Chúng ta đang bước vào thời đại mà Trí tuệ nhân tạo (Artificial Intelligence, viết tắt là AI) ngày càng đi sâu vào đời sống hàng ngày, kinh tế, an ninh, quân sự. Và chúng ta cũng chứng kiến hiện tượng kiểm duyệt bằng công nghệ AI. Người ta lo AI sẽ lấy mất công việc của nhiều nhóm nghề nghiệp. Và ở Trung Quốc có một điều bất ngờ là AI bắt đầu lấy mất nghề của cán bộ kiểm duyệt. Xin ông cung cấp một bức tranh tổng quan về hiện tượng này.
Kian Vesteinsson : Chúng ta biết rằng các công ty trên khắp thế giới sử dụng hệ thống học máy (machine learning) để quản lý nội dung trên nền tảng (platform) của họ. Và đó là một thực tế đơn giản về quy mô hoạt động của Internet ngày nay. Có một số lo ngại lớn về việc áp dụng các nội dung và hệ thống tự động, chẳng hạn như vào việc kiểm duyệt, vì vậy, điều quan trọng là các công ty không dựa vào các hệ thống tự động này để xóa nội dung mà không được con người xem xét trực tiếp một cách cẩn thận.
Nhưng nói chung, những loại hệ thống tự động này là một phần của mọi nền tảng truyền thông xã hội nhưng những hệ thống này cũng có thể là cái định hướng, để hạn chế sự biểu đạt của người dân trên mạng. Ví dụ kinh điển ở đây là hoạt động kiểm duyệt do AI điều khiển đã trở thành trọng tâm trong quy trình kiểm soát nội dung trực tuyến của Đảng Cộng sản Trung Quốc (Đảng cộng sản Trung Quốc). Và chắc chắn, những hệ thống tự động này là một cách hiệu quả về chi phí để kiểm soát sự biểu đạt của người dân Trung Quốc trên quy mô lớn.
Bây giờ tôi muốn nói thực sự rõ ràng ở đây. Các công ty như Alibaba, Tencent và Baidu là những công ty hàng đầu trong ngành về công nghệ kiểm duyệt và họ đã thực sự đạt đến trình độ tinh chỉnh, tinh vi về cách sử dụng các hệ thống tự động để nhắm mục tiêu và hạn chế có chủ ý nội dung chính trị, nội dung xã hội và các hình thức biểu đạt quan trọng khác.
Và sau đó họ bán những hệ thống tương tự cho các công ty Trung Quốc khác và khách hàng nước ngoài trên khắp thế giới. Họ đang làm điều này một phần vì chính phủ yêu cầu các trang web được lưu trữ tại địa phương, các nền tảng truyền thông xã hội và các công ty công nghệ khác phải chủ động giám sát và xóa một lượng đáng kể nội dung và tài khoản bị hạn chế. Những công ty này có thể phải đối mặt với sự trừng phạt nghiêm khắc nếu họ không tuân thủ. Vì vậy đối với tôi, vấn đề ở đây là, kiểu kiểm duyệt tự động tinh vi này là một sự đáp ứng tuấn thủ chính sách của Đảng cộng sản Trung Quốc đối với việc kiểm soát ở mức độ tuyệt đối Internet Trung Quốc. Và kết quả là, quyền của những người Trung Quốc viết bài trên mạng đã bị khống chế.
RFA : Việt Nam có xu hướng học theo những gì Trung Quốc làm. Nhưng Việt Nam nhỏ và năng lực thấp hơn Trung Quốc ở mức độ đáng kể. Về mặt công nghệ, áp dụng AI vào kiểm duyệt nội dung chính trị trên mạng có phải là việc dễ làm đối với một nước đang phát triển như Việt Nam ?
Kian Vesteinsson : Có một điều tôi sẽ nói ở khía cạnh này, đó là ngay cả khi nói đến môi trường Internet truyền thống, chỉ có những cách kiểm duyệt truyền thống, thì bức tranh về quyền tự do ngôn luận ở Việt Nam đã ảm đạm rồi.
Các bạn biết đấy, chúng tôi đã thấy trong năm qua, Chính phủ của các bạn đã xóa nội dung trực tuyến với tốc độ ngày càng tăng, kết án các nhà báo và người viết blog với án tù dài hạn. Từ thời điểm hiện tại này, đầu năm 2023, có vẻ như hoạt động kiểm duyệt này sẽ càng trở nên tệ hơn trong năm tới, với các quy định mới, để cụ thể hóa việc thực thi Luật An ninh mạng, có hiệu lực từ tháng 10 năm 2022. Và những quy định này sẽ mang lại cho chính phủ những con đường mới để ngăn chặn và xóa nội dung trực tuyến.
Sau đó, vào tháng 11 năm ngoái, Chính phủ các bạn đã thông báo rằng họ sẽ thắt chặt các yêu cầu đối với các công ty truyền thông xã hội trong việc xóa những bài đăng mà chính phủ cho là sai lệch. Và cũng trong khoảng thời gian đó, Đảng cộng sản Việt Nam đã đưa ra các quy định mới nhằm cấm quảng cáo trực tuyến trên một số trang web. Tôi nói tất cả những điều này bởi vì những diễn biến này cho thấy rằng người Việt Nam sẽ còn phải đối mặt nhiều hơn với sự kiểm duyệt trực tuyến nhằm hạn chế hoạt động báo chí độc lập và những tiếng nói bất đồng chính kiến trong năm tới.
Điều đó có thể dẫn tới hậu quả là Việt Nam loại bỏ những tiềm năng chuyển đổi to lớn và tích cực mà những công cụ do AI có thể tạo ra.
Còn về năng lực công nghệ của Việt Nam, vâng, tôi nghĩ rằng sẽ rất khó để đánh giá trước mức độ mà Đảng cộng sản Việt Nam có thể sử dụng các công cụ này theo cách giống như Đảng cộng sản Trung Quốc đã làm, và một phần là do nó đòi hỏi năng lực kỹ thuật cần thiết ở mức độ cao.
Các bạn biết rằng sự kiểm soát mà Đảng cộng sản Trung Quốc trên Internet là bao trùm tất cả. Để làm được điều này, họ đã làm được một điều rất khó là tạo ra một mức độ ảnh hưởng khổng lồ, mở rộng tầm kiểm soát của mình tới mọi nơi, từ các công ty công nghệ cơ sở hạ tầng Internet cho đến tận cuộc sống của những người bình thường sử dụng Internet. Nói một cách đơn giản, điều này khó. Thực sự rất khó để tái tạo Vạn lý Tường lửa (the Great Firewall) của Trung Quốc, bởi vì điều này đòi hỏi phải làm việc ở nhiều cấp độ, cấp độ pháp lý, cấp độ chính sách, cấp độ kinh tế và kỹ thuật.
Chúng ta biết rằng Đảng cộng sản Trung Quốc thực sự đang gửi lực lượng đi thuyết phục các chính phủ khác trên thế giới theo đuổi mô hình chủ nghĩa độc tài kỹ thuật số của mình. Nhờ đó, các công ty Trung Quốc đang bán những công cụ giám sát và kiểm duyệt tinh vi cho các khách hàng trên toàn thế giới. Và điều đó có thể cho phép các chính phủ khác tái tạo một số phần trong hệ thống kiểm soát của chính phủ Trung Quốc đối với Internet, thông qua việc mua các công cụ này từ các công ty đó.
RFA : Vậy nếu Việt Nam sử dụng các công cụ kiểm duyệt bằng AI của Trung Quốc thay vì sử dụng công nghệ AI theo tiêu chí Phương Tây, rủi ro cho an ninh quốc gia của nước này là gì ?
Kian Vesteinsson : Tôi xin để vấn đề đó cho các nhà phân tích về an ninh quốc gia, đó không phải là lĩnh vực chuyên môn của tôi. Vì vậy, tôi nghĩ tốt hơn là tôi không nói về điều đó. Nó thực sự phức tạp.
RFA : Trung Quốc là một quốc gia có dân số lớn nhất và có lượng người dùng Internet lớn nhất thế giới. Việc Đảng cộng sản Trung Quốc kiểm soát mạng lưới Internet có lượng người dùng lớn nhất thế giới có ảnh hưởng tới nội dung do những công cụ AI, ví dụ như Chat GPT, tạo ra hay không ? Ý tôi muốn nói là phạm vi ảnh hưởng có vượt ra khỏi lãnh thổ Trung Quốc mà lan ra cấp độ toàn cầu hay không.
Kian Vesteinsson : Vâng, đó thực sự là một câu hỏi sâu sắc. Tôi muốn tiếp cận vấn đề như thế này. Những công cụ Học máy này phản ánh dữ liệu mà chúng được đào tạo. Và vì vậy, nếu một công cụ Học máy chủ yếu lấy thông tin từ Internet tiếng Trung Quốc hoặc tiếng Việt, thì kết quả đầu ra của nó sẽ phản ánh những gì mà Đảng cộng sản Trung Quốc và Đảng cộng sản Việt Nam phát tán bao gồm cả những thành kiến của họ, những thông tin họ tuyên truyền. Nó sẽ truyền tải cái bầu không khí tinh thần mà chúng ta thấy trên mạng Internet của Trung Quốc và Việt Nam.
Điều đáng chú ý ở đây là các hệ thống AI này cũng có thể phản ánh sự kiểm duyệt, do sự can thiệp của con người đối với nội dung do máy tạo ra này. Một ví dụ ở đây là các phiên bản đầu tiên của chương trình chuyển đổi văn bản thành hình ảnh ERNIE-ViLG của Baidu đã giới hạn các tham chiếu đến hình ảnh Quảng trường Thiên An Môn, các nhà lãnh đạo Trung Quốc, hạn chế các thuật ngữ như "cách mạng" hoặc "vượt tường lửa". Vì vậy, tôi nghĩ điều này rất có khả năng là cái trạng thái thực tại của mạng Internet này sẽ khuôn định các công cụ sáng tạo bởi AI, vốn là cái dựa trên nền tảng Internet ấy.
Một điểm khác, tôi sẽ trình bày ở đây về chủ đề này, đó là tôi nghĩ có một câu hỏi quan trọng là : điều gì có thể xảy ra với người dùng ? Ai sử dụng các công cụ Học máy này để tạo nội dung mà các nhà lãnh đạo chính trị muốn nắm bắt ? Vì vậy giả sử ai đó ở Việt Nam sử dụng một bài viết được Chatbot tạo ra có nội dung chỉ trích Đảng cộng sản Việt Nam và sau đó đăng ảnh chụp màn hình của sản phẩm đó lên mạng xã hội, người đó có thể phải đối mặt với những hình phạt nào từ các cơ quan có thẩm quyền của Việt Nam ? Và điều gì xảy ra với công ty cung cấp những nền tảng đó ? Vì vậy, đây là một câu hỏi thực sự lớn mà tôi nghĩ rằng chúng ta sẽ chỉ thấy câu trả lời mở ra khi những công cụ này trở nên khả dụng hơn đối với người dân nói chung.
RFA : Đứng trước năng lực của Trung Quốc trong việc bóp méo nội dung do AI tạo ra như vậy, với tư cách là đảng cầm quyền ở Việt Nam, Đảng cộng sản Việt Nam phải đối diện với những vấn đề lớn hơn thế về mặt lợi ích quốc gia mà họ có trách nhiệm phải gánh vác. Tôi lấy ví dụ, Trung Quốc tranh chấp với một số nước ASEAN về chủ quyền lãnh thổ quốc gia ở Biển Đông. Trước khi có AI, họ đã huy động một số lượng lớn các học giả sản xuất tràn ngập các bài báo phát tán quan điểm sai trái của Trung Quốc một cách tinh vi. Họ áp đảo các học giả chân chính về mặt số lượng. Nay họ còn có thêm công cụ AI. Liệu AI sẽ tác động thế nào đến địa chính trị trong vùng ?
Kian Vesteinsson : Vâng đó là một câu hỏi thực sự hay, và thực tế là chúng ta sẽ không biết câu trả lời, do vấn đề còn phụ thuộc vào cách mà các công cụ AI này được thiết kế. Ví dụ, bạn biết rằng Baidu đang phát hành Chatbot Ernie của họ. Tôi nghĩ nó sẽ ra mắt trong tuần này. Các sản phẩm của Baidu và nhiều sản phẩm khác tương đương với nó trong bối cảnh quốc tế không minh bạch, người dùng hệ thống không rõ các mô hình học ngôn ngữ lớn này được đào tạo bằng những dữ liệu nào, và không rõ mức độ can thiệp của con người đối với quá trình đó.
Vì vậy, trong ví dụ mà bạn đã chia sẻ này, sẽ rất khó để người dùng công cụ của Baidu, sẽ ra mắt vào tuần này, có thể đánh giá mức độ mà sản phẩm đầu ra của nó bị thao túng để phục vụ lợi ích của chính quyền.
Đó là lý do tại sao điều thực sự quan trọng là các công ty phát triển những công cụ này phải tích hợp các nguyên tắc nhân quyền mạnh mẽ, các tiêu chuẩn cao về tính minh bạch và trách nhiệm giải trình công khai, khi họ phát hành chúng. Điều đó thực sự đã bắt đầu với các công ty lớn ở bên ngoài Trung Quốc để thiết lập tiêu chuẩn cho các công ty khác, không thuộc Trung Quốc.
RFA : Trung Quốc không chỉ sử dụng AI để kiểm duyệt, bây giờ thì họ có thể kiểm duyệt luôn cả AI, tức là bóp méo những gì mà AI có thể tạo ra theo ý muốn của họ. Ở trình độ này, họ có thể làm biến dạng mạng lưới thông tin toàn cầu hay không ? Điều đó liệu có thể chia thế giới này làm đôi, tức là chia các nhà hoạch định chính sách, các công ty công nghệ và người sử dụng Internet làm hai nhánh, đi theo hai hướng, trên phạm vi toàn cầu hay không ?
Kian Vesteinsson : Vâng, điều này hoàn toàn đúng. Hệ thống kiểm duyệt của Đảng cộng sản Trung Quốc đối với Internet Trung Quốc đã làm biến dạng hoàn toàn mạng internet toàn cầu. Tôi chỉ xin nêu một vài ví dụ về một số chủ đề lớn bị kiểm duyệt nghiêm ngặt mà chúng tôi đã thấy trong năm qua, ý tôi là chỉ vài tháng trước, cuối năm 2022, khi người dân khắp Trung Quốc đã vận động một phong trào biểu tình phản đối không chỉ các chính sách Zero COVID mà còn nhiều chính sách kiểm soát chính trị hà khắc của chính quyền. Điều này đã phát triển mạnh mẽ trên Internet trong một số ngày trước khi hệ thống kiểm duyệt hoạt động, xóa và hạn chế những nội dung đó. Nó diễn ra cùng một cách mà chúng ta thấy trong đại dịch COVID-19 khi chính phủ Trung Quốc kiểm duyệt thực sự gay gắt.
Lúc đó người dân chỉ trích việc phong tỏa hà khắc hoặc chia sẻ thông tin liên quan đến COVID. Loại biện pháp kiểm duyệt này thực sự đã trở thành một phần xu hướng mà chúng ta thấy trên khắp thế giới : xu hướng các chính phủ đang chia mạng Internet toàn cầu mở thành từng khu vực đàn áp chắp vá.
Nói chung, họ đang làm như vậy để cách ly về mặt kỹ thuật số cộng đồng của chính họ nhằm kiểm duyệt và giám sát người dùng theo những cách sâu hơn.
Và như vậy, chính phủ Trung Quốc đã thực sự đi "tiên phong." Cách tiếp cận này là xây dựng các đường biên giới kỹ thuật số, bên cạnh các đường biên giới lãnh thổ quốc gia. Điều đó thực sự tồi tệ đối với người dùng Internet và nhân quyền của họ.
Các công cụ học máy phản ánh dữ liệu mà chúng được đào tạo. Do đó, chúng có xu hướng phản ánh những thành kiến được nhúng trong những dữ liệu đó. Các mô hình ngôn ngữ lớn được đào tạo trên internet Trung Quốc, nơi bị Đảng cộng sản Trung Quốc kiểm duyệt gắt gao, có nguy cơ sao chép phiên bản internet bị thao túng đó trong kết quả đầu ra của họ. Điều này có thể ảnh hưởng đến các mô hình được xây dựng bởi các công ty có trụ sở bên ngoài Trung Quốc, không phải tuân theo các chỉ thị kiểm duyệt của Đảng cộng sản Trung Quốc. Điều quan trọng là các công ty xây dựng các mô hình này phải đặt ra tiêu chuẩn cao về tính minh bạch và trách nhiệm giải trình trước công chúng để những người sử dụng chúng biết được những giả định nào có thể được đưa vào quá trình xử lý của hệ thống học máy.
RFA : AI là một công nghệ có thể tạo ra những chuyển đổi to lớn mà những nước đang phát triển như Việt Nam không nên bỏ lỡ. Nhưng hệ thống kiểm duyệt của nước này tác động thế nào đến các công ty công nghệ mới trong lĩnh vực này khi họ muốn xem xét đầu tư vào một môi trường như Việt Nam ? Ở trên ông nói hoạt động kiểm duyệt gắt gao trên diện rộng có thể dẫn tới hậu quả là Việt Nam loại bỏ những tiềm năng chuyển đổi to lớn và tích cực mà những công cụ do AI trên mạng có thể tạo ra. Xin ông giải thích.
Kian Vesteinsson : Vâng, tôi xin đặt vấn đề như thế này. Những công cụ học máy AI này thực sự có khả năng biến đổi mọi lĩnh vực đời sống. Tôi nghĩ chúng sẽ thay đổi cách thức hoạt động của Internet. Và như với tất cả các công nghệ có khả năng tạo ra sự chuyển đổi tương tự, điều đó có khả năng mang lại nhiều lợi ích kinh tế, nhiều tăng trưởng và đổi mới cho những người đang xây dựng các công cụ này, xây dựng các hệ thống mới này và những người biết cách sử dụng chúng.
Tuy nhiên, khi một chính phủ nào đó áp đặt các hệ thống kiểm duyệt ở quy mô lớn thì chính phủ ấy cũng đang cắt giảm thông tin phục vụ cho quá trình sáng tạo đổi mới đó, cắt giảm những lợi ích kinh tế mà ngành công nghiệp mới này có thể tạo ra.
Khi các công ty công nghệ mới này tìm hiểu nơi họ nên đầu tư, nơi họ nên khai thác thị trường mới và tổ chức những hoạt động mới, một trong những việc họ sẽ phải làm là phân tích hai mặt lợi ích và chi phí. Trong đó, đối với họ, việc tuân thủ các yêu cầu kiểm duyệt và giám sát thực sự là việc khó khăn. Và vì vậy, để trả lời câu hỏi bạn đặt ra, tôi có thể nói rằng việc kiểm duyệt gắt gao trên diện rộng của chính phủ sẽ tạo ra những chi phí rất thực tế cho các công ty đang xem xét đầu tư vào một môi trường nhất định.
RFA : Như vậy nếu một nước đang phát triển như Việt Nam thực hiện một hệ thống kiểm duyệt chặt chẽ đối với sản phẩm do AI tạo ra trên Internet, điều này rốt cục sẽ khiến nước này có thể sẽ không nhận được đầy đủ lợi ích từ công nghệ mới này do không thu hút được đầu tư của các công ty ? Đó có thể là một khả năng không ?
Kian Vesteinsson : Vâng, đó chắc chắn là một khả năng.
RFA : Ở trên ông đã nói về tính minh bạch như là một điều kiện cần thiết để công nghệ AI có thể tạo ra sự chuyển đổi tích cực cho kinh tế xã hội. Xin ông giải thích chi tiết hơn tại sao tính minh bạch lại quan trọng đối với công nghệ mới này và với các quốc gia muốn tham gia vào làn sóng mới này ?
Kian Vesteinsson : Vâng. Khi đề cập đến tính minh bạch, tôi nói về tính minh bạch ở một mức độ rất rộng. Tôi muốn nói về tính minh bạch khi đề cập đến hệ thống kỹ thuật, cách thức vận hành, chính sách, cũng như tính minh bạch trong toàn bộ cách thức hoạt động của các công ty.
Điều này thực sự quan trọng vì một số lý do khác nhau. Tôi muốn nói rằng nó quan trọng không chỉ đối với các công ty như Open AI đang triển khai các công cụ học máy này, mà còn cả các công ty như Meta và Google trên các nền tảng nền tảng này. Tính minh bạch trao quyền cho người sử dụng hiểu điều gì đang xảy ra trên những nền tảng mà họ đang dành cả cuộc sống cho nó, phải không ? Những công cụ này, bao gồm cả Chat GPT, đang đóng một vai trò phi thường trong cuộc sống của mọi người. Do đó điều thực sự quan trọng là những người đang giao tiếp với hệ thống biết rằng họ có cơ hội, có điều kiện để hiểu được điều gì đang thực sự xảy ra ở mặt sau.
Một lý do khác khiến tính minh bạch thực sự quan trọng là điều này giúp xây dựng những quy định, những chế tài một cách thông minh và có chủ đích. Chúng ta đang ở thời điểm mà các chính phủ trên khắp thế giới đang tìm cách điều chỉnh lĩnh vực công nghệ. Và trong nhiều trường hợp, các chính phủ đang làm điều này với những hiểu biết và thông tin còn hạn hẹp. Và vì vậy, ở những tầng bậc mà chúng ta đã nói đến, tính minh bạch thực sự là chìa khóa để thúc đẩy quá trình hoạch định chính sách một cách thông minh. Như một điểm khởi đầu, các cơ quan quản lý trên khắp thế giới nên tìm kiếm cơ hội để thực thi các yêu cầu minh bạch đối với những công ty này, để từ đó chuẩn bị xa hơn nữa cho những chính sách hẹp và có chủ đích mà chúng ta muốn đạt tới trong tương lai
RFA : Xin cảm ơn nhà nghiên cứu Kian Vesteinsson và Freedom House đã dành cho độc giả của chúng tôi cuộc phỏng vấn này.
RFA, 17/03/2023
*****************************
"ChatGPT" của Trung Quốc không thuyết phục được giới đầu tư
Phan Minh, RFI, 17/03/2023
Tập đoàn Bách Độ (Baidu) của Trung Quốc hôm 16/03/2023 đã "trình làng" robot biết giao tiếp "Ernie Bot", được cho là đối thủ cạnh tranh với ChatGPT. Tuy nhiên, các nhà đầu tư không mấy ấn tượng với khả năng toán học và ngôn ngữ của Ernie Bot, và cổ phiếu của Bách Độ giảm 10% trên thị trường chứng khoán Hồng Kông.
Bảng hiệu Bách Độ (Baidu) tại trụ sở chính của tập đoàn tại Bắc Kinh, Trung Quốc, ngày 16/03/2023. Reuters – Tingshu Wang
Từ Bắc Kinh, thông tín viên Stéphane Lagarde cho biết cụ thể :
Đây không phải là lần đầu tiên Bách Độ ra một sản phẩm về lĩnh vực trí tuệ nhân tạo. Sau robot taxi không người lái, sau những chiếc loa thông minh nhỏ "Tiểu Độ - Xiaodu" có khả năng dự báo thời tiết và trả lời câu hỏi của các hộ gia đình ở những thành phố lớn Trung Quốc, giờ đây là "Ernie Bot", robot biết giao tiếp được cho là sẽ cạnh tranh với ChatGPT.
Tuy nhiên, Lý Ngạn Hoành (Robin Li), ông chủ của Bách Độ, không thích nói đến ý tưởng về một cuộc chạy đua với Hoa Kỳ. Theo ông Lý, bộ não nhân tạo là ý tưởng của các kỹ sư Bách Độ trong một thời gian dài : "Đây không phải là công cụ phục vụ cuộc đối đầu về công nghệ cao giữa Trung Quốc và Hoa Kỳ, mà là thành quả trong công việc của nhiều thế hệ kỹ sư Bách Độ, những người theo đuổi ước mơ thay đổi thế giới thông qua công nghệ."
Không chạy đua công nghệ, nhưng lần này, Bách Độ dường như đã ra mắt sản phẩm robot của mình quá sớm.
Hiện tại, chỉ có một phiên bản tiếng Quan Thoại của "Ernie Bot" được trình làng mà không thể hiện được khả năng của mình, điều mà Lý Ngạn Hoành thừa nhận là kém hơn so với robot của Mỹ, và điều này đủ để khiến cổ phiếu của Bách Độ tụt dốc trên sàn giao dịch chứng khoán Hồng Kông.
Phan Minh
Nguồn : RFI, 17/03/2023