Thông Luận

Cơ quan ngôn luận của Tập Hợp Dân Chủ Đa Nguyên

Trí tuệ nhân tạo trong lĩnh vực quân sự : Tác động tới an ninh quốc tế và hàm ý cho Việt Nam

Vào tháng 4/2017, Lầu Năm Góc công bố Dự án Maven (Project Maven), một nỗ lực nhằm tận dụng sức mạnh của AI để phân tích lượng lớn dữ liệu do máy bay không người lái thu thập [1]. Sự ra đời của dự án này đánh dấu một bước ngoặt quan trọng trong việc ứng dụng AI vào lĩnh vực quân sự, đồng thời cũng trở thành tâm điểm của nhiều cuộc tranh luận gay gắt xoay quanh tác động của công nghệ đối với tương lai của xung đột vũ trang [2]. Tuy nhiên, Dự án Maven chỉ là một trong nhiều ví dụ minh họa cho xu hướng ngày càng gia tăng của việc tích hợp AI vào các ứng dụng quốc phòng trên toàn cầu. Từ Mỹ đến Trung Quốc, từ Nga đến Israel, các cường quốc quân sự đang đầu tư mạnh mẽ vào việc phát triển và triển khai các hệ thống AI trong lĩnh vực quốc phòng. Cuộc chạy đua này không chỉ giới hạn ở các siêu cường, mà còn lan rộng đến cả các nước tầm trung, thậm chí cả các nước nhỏ, tạo ra một cục diện quân sự toàn cầu phức tạp, khó đoán định.

tritue1

Lính Mỹ tuần tra cùng chú chó robot. Ảnh : Forbes

Câu hỏi đặt ra là : AI sẽ định hình tương lai của chiến tranh và tác động đến môi trường an ninh toàn cầu như thế nào ? AI sẽ tác động ra sao tới răn đe hạt nhân và ổn định chiến lược trên toàn cầu ? Liệu công nghệ này có khiến cho xung đột vũ trang trở nên dễ xảy ra hơn hay không ? Đây là những câu hỏi lớn, có tầm vóc chiến lược mà các nhà nghiên cứu nói riêng và cộng đồng quốc tế nói chung cần có lời giải đáp thỏa đáng.

1. Vai trò của AI trong một số xung đột lớn gần đây

Các cuộc xung đột gần đây ở Ukraine và giữa Israel và Hamas đóng vai trò như những "phòng thí nghiệm" thực tế, cung cấp dữ liệu quan trọng về khả năng, hạn chế và tác động của trí tuệ nhân tạo (AI) trong các ứng dụng quân sự [3]. Trong cuộc xung đột ở Ukraine, việc triển khai AI chủ yếu mang tính phòng thủ và bất đối xứng, nhằm đối phó với lực lượng quân sự truyền thống vượt trội của Nga. Lực lượng Ukraine đã sử dụng hiệu quả các máy bay không người lái được tăng cường bởi AI để trinh sát và tấn công chính xác, cho thấy cách các công nghệ có nguồn gốc thương mại với chi phí tương đối thấp có thể thách thức các mô hình quân sự truyền thống. Sự tham gia của các công ty công nghệ như Palantir, cung cấp phần mềm phân tích dữ liệu và AI tiên tiến, đã cho phép Ukraine xử lý và phân tích nhanh chóng một lượng lớn dữ liệu tình báo [4]. Khả năng này đã được chứng minh là quan trọng trong việc dự đoán các động thái của Nga và lập kế hoạch đối phó hiệu quả.

Hơn nữa, việc Ukraine sử dụng AI trong phòng thủ mạng và chống lại các chiến dịch thông tin sai lệch làm nổi bật bản chất mở rộng của chiến tranh hiện đại, vốn có xu hướng ngày càng vượt ra khỏi các giới hạn vật lý. Cuộc xung đột này cho thấy cách AI có thể được khai thác để tăng cường khả năng chống chịu trước các cuộc tấn công mạng và nhanh chóng xác định, tìm phương án đối phó với các nội dung tuyên truyền và thông tin sai lệch, những yếu tố ngày càng được xem là những thành tố quan trọng của chiến tranh hiện đại.

Ngược lại, việc Israel ứng dụng AI trong xung đột ở Dải Gaza thể hiện một cách sử dụng công nghệ này mang tính sát thương diện rộng và gây tranh cãi hơn nhiều. Các hệ thống như "The Gospel" và "Lavender" là ví dụ điển hình của việc lên danh sách mục tiêu và lập kế hoạch tấn công dựa trên AI [5]. Những hệ thống này xử lý một lượng dữ liệu khổng lồ để xác định các mục tiêu tiềm năng, với mục đích được cho là để tăng độ chính xác và giảm thiểu thương vong cho dân thường (nhưng trên thực tế lại có độ sai số rất lớn).

Có thể thấy rằng vai trò của AI đối với sức mạnh quân sự đang ngày càng gia tăng nhanh chóng, thậm chí có thể làm thay đổi cơ bản cách thức vận hành của chiến tranh hiện đại. Sự tích hợp sâu rộng của AI trên chiến trường cũng khẳng định tầm quan trọng then chốt của dữ liệu như một nguồn lực trong chiến tranh hiện đại đã được làm nổi bật, rõ nét hơn nhờ các xung đột lớn gần đây này. Vai trò ngày một lớn hơn của dữ liệu đang làm thay đổi các hoạt động quân sự, với các hệ thống AI đóng vai trò là "xương sống" cho việc xử lý và phân tích thông tin tình báo từ nhiều nguồn đa dạng bao gồm hình ảnh vệ tinh, mạng xã hội và các cảm biến trên mặt đất. Cuối cùng, những thách thức về đạo đức và pháp lý do việc tích hợp AI vào chiến tranh là rất lớn và nhiều khả năng sẽ ngày càng lớn hơn, đòi hỏi sự quan tâm, chú ý từ cộng đồng quốc tế. Việc sử dụng AI trong lựa chọn và tham gia mục tiêu, như đã thấy trong xung đột Israel-Hamas đang đặt ra những câu hỏi lớn về trách nhiệm giải trình, tính minh bạch và việc tuân thủ luật nhân đạo quốc tế trong xung đột vũ trang.

2. Tác động của AI đối với an ninh quốc tế

2.1. AI và nguy cơ leo thang xung đột

Xét từ khía cạnh lý thuyết quan hệ quốc tế, xung đột vũ trang thường nổ ra do hai nguyên nhân chính : sự quá lạc quan từ ít nhất một bên và sự leo thang khủng hoảng ngoài tầm kiểm soát. Sự xuất hiện của AI trong lĩnh vực quân sự và chiến lược đang tạo ra những tác động sâu sắc đối với cả hai yếu tố này, đồng thời làm thay đổi bản chất của xung đột.

Sự lạc quan thái quá là một trong những nguyên nhân chính dẫn đến xung đột vũ trang, xảy ra khi một bên đánh giá quá cao khả năng chiến thắng của mình hoặc đánh giá thấp đối phương. Điển hình là quyết định của Đức phát động Thế chiến I năm 1914, khi họ tin rằng có thể đánh bại Pháp nhanh chóng thông qua Kế hoạch Schlieffen trước khi Nga kịp huy động quân đội [6]. Tuy nhiên, họ đã đánh giá sai khả năng kháng cự của Bỉ và tốc độ huy động của Nga, dẫn đến một cuộc chiến kéo dài và tốn kém. AI có thể giúp giảm nguy cơ này bằng cách cải thiện đáng kể khả năng thu thập và phân tích thông tin. Các mô hình AI tiên tiến có thể xử lý lượng dữ liệu khổng lồ từ nhiều nguồn, phát hiện các mô hình và xu hướng mà con người có thể bỏ qua, giúp các nhà hoạch định chính sách có cái nhìn toàn diện và chính xác hơn về tình hình.

Mặt khác, AI cũng có thể tăng cường sự tự tin thái quá theo nhiều cách. Sự phức tạp và độ chính xác được cho là cao của các mô hình AI có thể tạo ra cảm giác sai lầm về sự chắc chắn, khiến các nhà lãnh đạo đặt niềm tin quá mức vào các dự đoán mà không nhận thức đầy đủ về hạn chế và thiên kiến tiềm ẩn. AI cũng có thể tạo ra "ảo tưởng" về lợi thế quân sự thông qua các hệ thống vũ khí tiên tiến như máy bay không người lái tự hành hoặc hệ thống phòng thủ tên lửa, khiến một quốc gia tin rằng họ có khả năng vượt trội [7]. Ngoài ra, khả năng của AI trong việc tạo ra các kịch bản và mô phỏng phức tạp có thể vô tình khuyến khích tư duy "đánh nhanh thắng nhanh". Các mô phỏng AI có thể cho thấy kết quả tích cực trong các kịch bản xung đột, nhưng chúng có thể không tính đến đầy đủ các yếu tố không thể dự đoán và phi lý tính vốn có trong chiến tranh thực tế.

Nguyên nhân thứ hai dễ dẫn tới bùng phát xung đột vũ trang là do khủng hoảng mất kiểm soát. Leo thang khủng hoảng là một quá trình trong đó căng thẳng giữa các bên tăng dần, cuối cùng dẫn đến xung đột vũ trang mặc dù ban đầu không bên nào mong muốn điều đó [8]. Quá trình này thường bao gồm một loạt các hành động và phản ứng, mỗi bước đi làm tăng cả mức độ đe dọa lẫn mức độ cam kết của các bên.

Cuộc khủng hoảng tên lửa Cuba năm 1962 là một ví dụ nổi tiếng về cách một tình huống có thể nhanh chóng leo thang đến bờ vực chiến tranh hạt nhân. Quyết định của Liên Xô đặt tên lửa ở Cuba và sau đó là phản ứng gay gắt, quyết liệt của chính quyền Kennedy đã tạo ra một tình huống cực kỳ nguy hiểm, chỉ được giải quyết vào phút cuối nhờ ngoại giao khéo léo [9]. Khủng hoảng thường leo thang ngoài tầm kiểm soát do nhiều yếu tố, bao gồm áp lực thời gian, thông tin không đầy đủ, hiểu lầm về ý định của đối phương, và lo sợ về hậu quả của việc tỏ ra yếu đuối. Trong môi trường căng thẳng và bất ổn của khủng hoảng, các nhà lãnh đạo có thể đưa ra những quyết định dẫn đến hậu quả không lường trước được.

Nhìn chung, AI có thể tác động đáng kể đến động lực leo thang khủng hoảng, theo hướng tiêu cực nhiều hơn tích cực. Mặc dù có thể cải thiện khả năng phát hiện sớm các dấu hiệu khủng hoảng, AI cũng có thể rút ngắn đáng kể thời gian ra quyết định trong các tình huống khủng hoảng, với các hệ thống cảnh báo sớm dựa trên AI có khả năng phát hiện các mối đe dọa trong thời gian thực, có thể chỉ trong vài phút. Điều này tạo áp lực lên các nhà lãnh đạo phải đưa ra quyết định nhanh chóng, làm tăng nguy cơ phản ứng quá mức hoặc ra quyết định sai lầm dựa trên thông tin không đầy đủ.

Hơn nữa, sự phụ thuộc vào các hệ thống AI trong quản lý khủng hoảng có thể dẫn đến những hiểu lầm nguy hiểm và giảm khả năng kiểm soát của con người. AI có thể diễn giải sai ý định hoặc hành động của đối phương, đặc biệt là trong các tình huống phức tạp hoặc không rõ ràng. Ngoài ra, việc tự động hóa một số khâu ra quyết định trong quản lý khủng hoảng có thể dẫn đến leo thang ngoài ý muốn. Nếu các hệ thống AI được giao quyền tự động phản ứng đối với các mối đe dọa được nhận thức, có thể xảy ra tình huống "máy giao tiếp với máy", trong đó các hành động tự động của một bên kích hoạt phản ứng tự động từ bên kia, tạo ra một vòng xoáy leo thang nhanh chóng vượt quá tầm kiểm soát của con người.

2.2. AI và răn đe hạt nhân

Răn đe hạt nhân được đông đảo giới nghiên cứu chiến lược xem là đã và đang đóng vai trò chủ chốt trong việc ngăn ngừa một cuộc chiến tranh "nóng" giữa các cường quốc kể từ sau Thế chiến II đến nay. Lý thuyết răn đe hạt nhân, được phát triển bởi các nhà chiến lược như Bernard Brodie và Thomas Schelling, dựa trên nguyên tắc "hủy diệt lẫn nhau chắc chắn" (Mutual Assured Destruction - MAD) [10]. Theo đó, khi các bên đều sở hữu khả năng trả đũa hạt nhân đáng tin cậy, không bên nào dám mạo hiểm phát động một cuộc tấn công trước, vì lo ngại hậu quả hủy diệt không thể chấp nhận được. Hiệu quả của răn đe hạt nhân được minh chứng qua việc không có xung đột trực tiếp nào nổ ra giữa các cường quốc hạt nhân trong suốt thời kỳ Chiến tranh Lạnh và sau đó. Ngay cả trong những thời điểm căng thẳng cao độ như Khủng hoảng tên lửa Cuba năm 1962, logic của răn đe hạt nhân đã giúp các bên kiềm chế và tìm kiếm giải pháp ngoại giao thay vì leo thang quân sự [11].

Tuy nhiên, sự xuất hiện của AI đang tạo ra những thay đổi đáng kể trong động lực của răn đe hạt nhân, có khả năng làm suy yếu, xói mòn tác dụng của vũ khí hạt nhân trong việc ngăn chặn xung đột. Cụ thể, AI có tiềm năng tác động đến ba yếu tố cốt lõi của răn đe hạt nhân : khả năng phát hiện, khả năng sống sót của lực lượng hạt nhân, và quá trình ra quyết định.

Thứ nhất, về khả năng phát hiện, AI có thể nâng cao đáng kể hiệu quả của các hệ thống cảnh báo sớm [12]. Các thuật toán học máy tiên tiến có khả năng phân tích lượng dữ liệu khổng lồ từ nhiều nguồn để phát hiện dấu hiệu của cuộc tấn công hạt nhân sắp xảy ra với độ chính xác và tốc độ vượt trội. Thứ hai, AI có thể tác động mạnh mẽ đến khả năng sống sót của lực lượng hạt nhân – yếu tố then chốt của khả năng trả đũa hạt nhân (second-strike capability) [13]. Các hệ thống AI tiên tiến có thể nâng cao đáng kể khả năng phát hiện và theo dõi các phương tiện phóng tên lửa hạt nhân, bao gồm cả tàu ngầm mang tên lửa đạn đạo. Cuối cùng, AI đang thay đổi cách thức vận hành của hệ thống chỉ huy và kiểm soát hạt nhân [14]. Các hệ thống hỗ trợ ra quyết định dựa trên AI có thể giúp các nhà lãnh đạo xử lý thông tin nhanh hơn trong các tình huống khủng hoảng. Các hệ thống cảnh báo sớm dựa trên AI có khả năng phát hiện dấu hiệu của cuộc tấn công hạt nhân trong thời gian thực, có thể chỉ trong vài phút.

Quan trọng hơn, AI có thể làm thay đổi nhận thức về tính khả thi của một cuộc tấn công hạt nhân phủ đầu thành công. Nếu một quốc gia tin rằng, nhờ có AI, họ có thể phát hiện và vô hiệu hóa toàn bộ kho vũ khí hạt nhân của đối phương trong một đòn tấn công bất ngờ, điều này có thể làm suy yếu nghiêm trọng logic của răn đe hạt nhân. Kết quả là, trong một cuộc khủng hoảng, một bên có thể cảm thấy áp lực phải "sử dụng hoặc mất" vũ khí hạt nhân của mình, làm tăng nguy cơ xung đột leo thang [15].

Về tổng thể, AI rất có thể đặt ra nhiều thách thức nghiêm trọng đối với hiệu quả của răn đe hạt nhân. Bằng cách làm giảm thời gian ra quyết định, tạo ra sự không chắc chắn về khả năng sống sót của lực lượng hạt nhân, và có khả năng thay đổi nhận thức về tính khả thi của một cuộc tấn công phủ đầu, AI đang làm suy yếu các nền tảng của sự ổn định chiến lược dựa trên răn đe hạt nhân. Từ góc nhìn này, sự phát triển và tích hợp sâu rộng của AI vào trong bộ máy quân sự trong tương lai sẽ gây gia tăng nguy cơ xung đột vũ trang giữa các nước lớn nói riêng và giữa các nước sở hữu vũ khí hạt nhân nói chung.

2.3. AI và chi phí của xung đột vũ trang

Sự tích hợp của AI vào các hệ thống quân sự đang làm thay đổi căn bản cách thức tiến hành chiến tranh. Các hệ thống vũ khí tự hành, từ máy bay không người lái đến robot chiến đấu trên mặt đất, sẽ từng bước giảm thiểu sự hiện diện của con người trên chiến trường. Điều này có thể làm giảm đáng kể thương vong cho lực lượng sử dụng chúng, ít nhất là trong một số giai đoạn nhất định của xung đột. Hơn nữa, các cuộc tấn công mạng được hỗ trợ bởi AI có thể gây ra thiệt hại đáng kể cho cơ sở hạ tầng quan trọng của đối phương mà không cần đến sự hiện diện vật lý trên lãnh thổ của họ. Điều này khiến ranh giới giữa chiến tranh và hòa bình, giữa mục tiêu quân sự và dân sự, mờ đi đáng kể.

Việc chi phí chính trị của xung đột giảm đi có thể dẫn đến việc gia tăng số lượng các cuộc xung đột cường độ thấp, ở quy mô hạn chế [16]. Các nhà cầm quân có thể cảm thấy sẵn sàng sử dụng vũ lực hoặc tiến hành các hoạt động gây hấn hơn khi họ tin rằng mình có thể kiểm soát được mức độ leo thang và hạn chế thiệt hại. Điều này đặt ra thách thức đáng kể đối với các cơ chế ngăn chặn xung đột truyền thống. Sự phức tạp và tốc độ của các cuộc xung đột được hỗ trợ bởi AI có thể làm suy yếu hiệu quả của các cơ chế giải quyết xung đột truyền thống như đàm phán ngoại giao hoặc can thiệp của bên thứ ba. Khi các quyết định được đưa ra với tốc độ ngày càng nhanh và dựa trên các phân tích phức tạp của AI, có thể sẽ ít có thời gian và không gian cho các nỗ lực ngoại giao truyền thống. Về tổng thể, việc AI giúp giảm các chi phí liên quan đến sử dụng vũ lực nhiều khả năng sẽ khiến công cụ này trở nên "hấp dẫn" hơn trong mắt của các nhà lãnh đạo ở một số quốc gia, do đó làm tăng nguy cơ có xung đột vũ trang xảy ra trong tương lai.

3. Hàm ý đối với Việt Nam

Đối với Việt Nam, AI trong lĩnh vực quân sự mở ra cả cơ hội lẫn thách thức. Trước hết, nếu tận dụng tốt, AI có thể trở thành công cụ đắc lực bảo vệ an ninh quốc gia, nhất là trong tình hình Biển Đông căng thẳng. Các hệ thống giám sát và phân tích dựa trên AI sẽ giúp ta nâng cao khả năng phát hiện và ứng phó kịp thời với các hành vi xâm phạm chủ quyền trên biển. Việc ứng dụng AI vào phòng thủ ven biển và hải đảo cũng sẽ tăng cường đáng kể năng lực bảo vệ lãnh thổ mà không tốn quá nhiều nguồn lực.

Tuy nhiên, việc các nước tham gia vào một cuộc chạy đua AI trong lĩnh vực quân sự nhiều khả năng sẽ làm xấu đi tình hình an ninh khu vực và thế giới trong thời gian tới. Sự phát triển mạnh mẽ của các hệ thống vũ khí thông minh, giúp giảm thiểu sự hiện diện của binh lính trên chiến trường, có thể khiến việc sử dụng vũ lực trở nên dễ dàng hơn, dẫn đến nhiều cuộc đụng độ nhỏ lẻ nhưng thường xuyên hơn. Điều này buộc Việt Nam phải liên tục cập nhật chiến lược quốc phòng để thích ứng với môi trường an ninh mới.

Trong bối cảnh đó, Việt Nam cần chủ động hơn nữa ở các diễn đàn quản trị AI, từ khu vực ASEAN đến toàn cầu. Đặc biệt, Việt Nam có tiềm năng dẫn dắt một phong trào vận động chống lại xu hướng tích hợp AI vào các hệ thống vũ khí có rủi ro cao, có khả năng gây sát thương trên diện rộng. Lập trường này vừa bảo vệ lợi ích an ninh quốc gia, vừa thể hiện một cách thực chất cam kết của Việt Nam đối với hòa bình khu vực.

Trong khuôn khổ ASEAN, Việt Nam có thể đề xuất xây dựng bộ quy tắc có tính ràng buộc về phát triển và sử dụng AI quân sự. Bộ quy tắc này cần nhấn mạnh các nguyên tắc minh bạch, trách nhiệm giải trình và sự kiểm soát của con người. Ở tầm quốc tế, ta cần tích cực tham gia các cuộc thảo luận tại Liên Hợp Quốc và các diễn đàn khác, bảo đảm tiếng nói của các nước đang phát triển được lắng nghe trong quá trình xây dựng luật chơi toàn cầu về AI quân sự.

Cuối cùng, song song với nỗ lực ngoại giao, Việt Nam cần đẩy mạnh phát triển nguồn nhân lực AI chất lượng cao, đặc biệt trong lĩnh vực an ninh mạng và phân tích dữ liệu lớn. Điều này không chỉ giúp tăng cường năng lực phòng thủ mà còn đảm bảo ta có đủ chuyên gia để đóng góp hiệu quả vào các cuộc thảo luận quốc tế về AI quân sự. Việc đào tạo đội ngũ chuyên gia AI am hiểu sâu sắc về an ninh quốc tế và chiến lược quốc phòng là nhiệm vụ cấp bách để Việt Nam có thể ứng phó hiệu quả với các thách thức an ninh trong thời đại số.

Ngô Di Lân

Nguồn : Nghiên cứu quốc tế, 15/09/2024

—————-

[1] Saleha Mohsin, "Inside Project Maven, the US Military’s AI Project", Bloomberg, ngày 1/3/2024.

[2] James Johnson, "Artificial intelligence & future warfare : implications for international security", Defense & Security Analysis 35, số 2 (2019), pp 147-169.

[3] David Wallace-Wells, "What War by A.I. Actually Looks Like", The New York Times, ngày 10/4/2024.

[4] Vera Bergengruen, "How Tech Giants Turned Ukraine Into an AI War Lab", TIME, ngày 8/2/2024.

[5] Sigal Samuel, "Some say AI will make war more humane. Israel’s war in Gaza shows the opposite", Vox, ngày 8/5/2024.

[6] Terence M. Holmes, "Back to the sources: An attempt to resolve the Schlieffen Plan controversy", War in History 28, số 3 (2021), pp 525-543.

[7] Dominic Johnson, Overconfidence and war: The havoc and glory of positive illusions (Cambridge : Harvard University Press, 2004).

[8] Barry R. Posen, Inadvertent escalation: Conventional war and nuclear risks (Ithaca : Cornell University Press, 2014).

[9] Sergey Radchenko và Vladislav Zubok, "Blundering on the Brink : The Secret History and Unlearned Lessons of the Cuban Missile Crisis", Foreign Affairs, ngày 3/4/2023.

[10] Henry D. Sokolski, Getting MAD : nuclear mutual assured destruction, its origins and practice (Carlisle : Strategic Studies Institute, US Army War College, 2004).

[11] Dean C. Curry, "Beyond MAD : Affirming the Morality and Necessity of Nuclear Deterrence", Transformation 5, số 1 (1988), pp 8-15.

[12] James Johnson, "Artificial intelligence in nuclear warfare : a perfect storm of instability?", The Washington Quarterly 43, số 2 (2020), pp 197-211.

[13] Michael C. Horowitz, Paul Scharre, và Alexander Velez-Green, "A stable nuclear future ? The impact of autonomous systems and artificial intelligence", arXiv preprint arXiv:1912.05291 (2019).

[14] Alice Saltini, "AI and Nuclear Command, Control and Communicationsn: P5 Perspectives", The European Leadership Network (2023).

[15] Even Hellan Larsen, "Deliberate Nuclear First Use in an Era of Asymmetry : A Game Theoretical Approach", Journal of Conflict Resolution 68, số 5 (2024), pp 849-874.

[16] Robert E. Osgood, Limited war revisited (London: Routledge, 2019).

Additional Info

  • Author Ngô Di Lân
Published in Diễn đàn

Các hiện tượng thời tiết cực đoan gây ra lũ lụt, hạn hán, cháy rừng xảy ra thường xuyên và nghiêm trọng hơn, ảnh hưởng đến các quốc gia trên toàn cầu. Để ứng phó với biến đổi khí hậu, Trí tuệ nhân tạo (AI), ngày càng được sử dụng trong nhiều lĩnh vực, được xem là giải pháp hữu hiệu, dù còn nhiều bất cập.

ai1

Tại Trung Quốc, nhiều Trí tuệ nhân tạo hỗ trợ ứng phó với biến đổi khí hâu.

đầm lầy, sông hồ dần biến mất do tác động của hiện tượng trái đất nóng lên. Dọc theo sông Giang Tô, tại khu bảo tồn hồ Chenhu, với khoảng 11 000 héc-ta đất ngập nước, các hoạt động của con người được hạn chế, nhưng Trí tuệ nhân tạo được triển khai rộng rãi. Trong một bảo tàng sinh thái được thiết lập trong khu vực này, một căn phòng được dành riêng để bố trí các loa phát thanh và hình ảnh thu được từ 31 camera và 21 micro, được lắp đặt khắp khu bảo tồn. Một nhân viên của bảo tàng, Wehn Zhou, trả lời RFI Pháp ngữ giải thích rằng "đó là hệ thống trí tuệ nhân tạo, với một bảng điều khiển lớn, cùng các công cụ đo lường, cũng như các dữ liệu về thực vật và đất. Và sau đó là các mô-đun về âm thanh và hình ảnh…".

Trí tuệ nhân tạo được sử dụng để hỗ trợ bảo vệ khoảng 277 loài chim, 58 loài cá, động vật lưỡng cư và khoảng 30 loài động vật có vú, ẩn náu trong hệ sinh thái ngập nước ở miền trung Hoa lục. Thay vì dùng ống nhòm như trước kia, để quan sát các loài chim, hay phải cử người đi thực địa, thì từ năm 2022, các camera và micro được lắp đặt cho phép giám sát, theo dõi các loài vật từ xa và can thiệp khi cần (nếu như có loài nào đó bị thương).

Theo trang China Daily, hệ thống được tích hợp Trí tuệ nhân tạo  cho phép phát hiện các loài chim đến hoặc rời đi, cũng như xác định khu vực mà các loài chim thích di chuyển đến bằng cách xác định loài thông qua tiếng chim. Hình ảnh chụp các loài chim từ camera sẽ được tự động so sánh với ảnh trong cơ sở dữ liệu có sẵn, kết hợp với âm thanh, để tăng độ chính xác khi nhận dạng loài.

Khi con người ít can thiệp vào tự nhiên, nhiều loài chim mới đã được phát hiện, hoặc xuất hiện trở lại, như loài bồ nông Dalmatian quý hiếm, (chỉ khoảng 150 con ở Đông Á), hay loài hồng hạc lớn vốn không xuất hiện tại khu bảo tồn từ nhiều năm qua.

AI hỗ trợ dự báo thời tiết chuẩn xác hơn

Trí tuệ nhân tạo cũng được triển khai bởi các nhà khoa học ở vùng Sừng Châu Phi, khu vực thường xuyên hứng chịu các trận mưa lớn, gây ngập lụt, hay những đợt hạn hán kéo dài. Theo hãng tin AP, trí tuệ nhân tạo được sử dụng để dự báo tốt hơn, các hiện tượng thời tiết cực đoan ngày càng khó lường do biến đổi khí hậu.

Hệ thống dự báo thời tiết, do Chương trình lương thực thế giới của Liên Hiệp Quốc và Google tài trợ, được phát triển bởi các nhà khoa học từ khoa vật lý, đại học Oxford của Anh Quốc, trong đó có cô Shruti Nath : "Chúng tôi có một cách tiếp cận kết hợp, sử dụng trí tuệ nhân tạo để lấp đầy những khoảng trống trong vật lý, hoặc xử lý những dữ liệu quá phức tạp. Trí tuệ nhân tạo có thể khiến các dữ liệu đó được trình bày một cách đơn giản hơn, và cho phép dự báo gần với thực tế nhất. Cụ thể, để có thể dự báo, AI được đào tạo, nắm được các dữ liệu lịch sử về thời tiết, nhiệt độ… sau đó có thể đem so sánh với dữ liệu thu được từ thực tế, qua đài quan sát hoặc qua vệ tinh. Mô-đun AI mà chúng tôi tạo ra sẽ ngày càng học được nhiều hơn. Chúng tôi thậm chí còn "khen thưởng" AI, nếu đưa ra dự báo chính xác, phù hợp với thực tế quan sát được. Nếu không làm được thì AI sẽ bị phạt".

Theo AP, tại Anh, trong việc dự báo thời tiết, các siêu máy tính được sử dụng, có khả năng thực hiện 16 000 phép tính mỗi giây. Thế nhưng, chi phí để vận hành những siêu máy tính này và các trạm thu thập dữ liệu lại rất đắt đỏ, và không có sẵn ở các nước đang phát triển. Mô hình dự báo AI mà các nhà khoa học vật lý của đại học Oxford tạo ra thì lại có thể vận hành từ máy tính xách tay.

Việc dự báo thời tiết ở Sừng Châu Phi hiện vẫn gặp nhiều khó khăn, do thời tiết thay đổi thất thường và thiếu các trạm quan sát khí tượng cũng như thu thập dữ liệu, khiến người dân vốn trong tình trạng dễ bị tổn thương có nguy cơ gặp nhiều rủi ro. Hiện mô đun nói trên vẫn còn trong quá trình thử nghiệm, nhưng có thể đưa ra dự báo trong vòng 48 giờ, và có thể gửi cảnh báo nguy hiểm qua tin nhắn, thư điện tử, và thậm chí là cả đến đài phát thanh hoặc truyền hình.

Chương trình này hiện đang được thí điểm ở Kenya và Ethiopia, nếu thành công, có thể được triển khai ở những khu vực khác trên thế giới, tại những nơi thời tiết ngày càng khắc nghiệt do biến đổi khí hậu, tác động đến cuộc sống của con người.

AI dự báo ô nhiễm

Vẫn về khí hậu, hồi tháng 6 vừa qua, các nhà nghiên cứu về Trí tuệ nhân tạo của tập đoàn Microsoft đã cho ra mắt một mô-đun với tên gọi Aurore AI, được cho là "cách mạng hoá" việc dự báo ô nhiễm không khí, lần đầu tiên cho phép dự báo mức độ ô nhiễm trên phạm vi toàn cầu trong vòng chưa đầy một phút, theo tạp chí khoa học Nature.

Matthew Chantry, nhà nghiên cứ về máy học tại Trung tâm Dự báo Thời tiết Trung bình Châu Âu (ECMWF) , cho biết "dự đoán ô nhiễm không khí thường phức tạp hơn nhiều so với dự báo thời tiết" và Aurora có những tính năng tiến bộ đáng kể so với mô hình dự báo trước kia.

Mô-đun trí tuệ nhân tạo này có thể dự báo trên toàn cầu và không cần nhiều phép tính. Để tạo ra Aurora AI và các tính năng nói trên, các nhà khoa học đã tích hợp một kho dữ liệu khổng lồ, với hơn 1 triệu giờ dữ liệu từ 6 mô hình thời tiết và khí hậu khác nhau. Cụ thể, Aurora có thể dự báo mức độ của sáu chất gây ô nhiễm không khí chính, bao gồm carbon monoxide, nitơ oxit, sulfur dioxide, ozone và các hạt vật chất, trên toàn thế giới trong vòng chưa đầy một phút. Công nghệ này cung cấp các dự đoán về ô nhiễm trong 5 ngày và dự báo thời tiết toàn cầu trong 10 ngày với độ chính xác và hiệu quả vượt trội, với chi phí tính toán thấp hơn đáng kể so với các mô hình thông thường mà Cơ quan giám sát khí quyển Copernicus của Châu Âu sử dụng. 

"Đồng minh của các nhà khí tượng học"

Trên tạp chí của Viện nghiên cứu Polytechnique de Paris , ông Samuel Morin, giám đốc Trung tâm nghiên cứu khí tượng quốc gia Pháp (CNRM), nhận định rằng Trí tuệ nhân tạo được xem là một "đồng minh của các nhà khí tượng học".

Ông Morin nêu ra hai hai mô-đun tích hợp Trí tuệ nhân tạo, là Arome và Arpège, được cơ quan Météo-France sử dụng, để mô phỏng bầu khí quyển trên lãnh thổ Pháp và các khu vực hải ngoại cũng như của toàn bộ hành tinh.

Công cụ Arome có thể giúp cải thiện khả năng dự báo ngắn hạn về các hiện tượng nguy hiểm như các trận mưa lớn, bão, sương mù ở Địa Trung Hải, hoặc nhiệt độ tăng cao tại khu vực đô thị trong các đợt nắng nóng. Công cụ này cũng cho phép thực hiện các mô phỏng với độ phân giải rất tốt, bằng cách "cắt" lớp khí quyển thành các khối nhỏ.

Trí tuệ nhân tạo cũng được các nhà nghiên cứu của Pháp  sử dụng để mô phỏng sự tiến hoá của sông băng từ quá khứ cho đến tương lai, để hiểu các quá trình vật lý, và qua đó, dự đoán những diễn biến có thể xảy ra trong tương lai của sông băng và tác động của chúng đối với mực nước biển dâng, tài nguyên nước và hệ sinh thái, nhất là có thể tìm ra giải pháp ứng phó với tình trạng tan băng hà do biến đổi khí hậu.

Tiềm năng giúp trái đất đạt trung hòa carbon

Vào năm 2023, trước thềm Hội nghị khí hậu COP 28, Liên Hiệp Quốc đã thiết lập một tổ chức cố vấn về Trí tuệ nhân tạo AI Advisory Body , nhằm thúc đẩy xu hướng sử dụng máy học – machine learning, "tìm ra giải pháp cho các thánh thức chung", "giải quyết vấn đề biến đổi khí hậu", để nhiều chính phủ, doanh nghiệp và xã hội dân sự cùng được hưởng lợi.

Ngoài các tính năng nói trên, theo trang tin của Liên Hiệp Quốc, Trí tuệ nhân tạo cũng có thể hỗ trợ phòng tránh các thảm họa khí hậu, hay hỗ trợ đạt trung hòa carbon, chẳng hạn như tự động hoá việc thu thập và phân tích dữ liệu, giúp xác định, điều chỉnh các nguồn phát thải hiệu quả hơn.

Về vấn nạn thời trang nhanh, fast-fashion, AI cũng có thể can thiệp, tối ưu hóa chuỗi cung ứng để giảm lãng phí, giám sát mức tiêu thụ tài nguyên và thúc đẩy các quy trình sản xuất bền vững. Trí tuệ nhân tạo cũng có thể giúp đẩy nhanh quá trình chuyển đổi năng lượng bằng cách tối ưu hóa việc tiết kiệm và nâng cao hiệu quả trong các lĩnh vực sử dụng nhiều năng lượng.

Trí tuệ nhân tạo cũng gây ô nhiễm

Tuy có nhiều tiềm năng lớn trong việc giải quyết các vấn đề về khí hậu, nhưng Trí tuệ nhân tạo cũng có nhiều điểm bất cập.

AI gây ô nhiễm, trước tiên, là do việc sản xuất các thiết bị máy tính, chẳng hạn như chip điện tử, có thể xử lý số lượng lớn dữ liệu. AI cũng tiêu thụ rất nhiều điện. Một nghiên cứu được công bố trên tạp khí khoa học Joule chỉ ra rằng vào năm 2027, AI có thể tiêu thụ 85 đến 134 terawatt giờ (TWh), tức là mức tiêu thụ tương đương với mức tiêu thụ điện của Achentina hoặc của Thụy Điển ! Theo một số nhà quan sát, được La Tribune nêu ra, mặc dù những dữ liệu này không đáng tin cậy, những vẫn giá trị làm nổi bật vấn đề ngày càng tăng về lượng khí thải carbon của các mô hình trí tuệ nhân tạo. Ví dụ, nghiên cứu của đại học California chỉ ra rằng việc huấn luyện AI cho Chat GPT-3,  đã tiêu tốn 552 tấn CO2. Con số này tương đương với 205 chuyến bay khứ hồi Paris-New York bằng máy bay

Ngoài ra, những trung tâm dữ liệu cho AI cũng tiêu thụ một lượng lớn nước để làm mát. Các nhà nghiên cứu lo ngại rằng trong tương lai mức tiêu thụ này sẽ ảnh hưởng đến trữ lượng nước, đặc biệt trong bối cảnh hạn hán. Dĩ nhiên, giới khoa học cũng nhận thức được điều này và tìm các giải pháp giảm thiểu tác động môi trường của AI. Ví dụ, Microsoft đã làm chìm một trung tâm dữ liệu ở Bắc Hải và việc làm mát trung tâm này được cung cấp bởi dòng nước lạnh xung quanh.

Chi Phương

Additional Info

  • Author Chi Phương
Published in Diễn đàn

Geoffrey Hinton tin rằng AI đã có những trải nghiệm giống như con người.

ai1

Geoffrey Hinton, giáo sư danh dự tại Đại học Toronto, nói chuyện với tờ Nikkei tại nhà ông gần khuôn viên trường đại học ở Toronto. (Ảnh của Katsuyoshi Tanaka)

Trí tuệ nhân tạo (Artificial Intelligence - AI) đang phát triển với tốc độ đáng kinh ngạc. Thế giới sẽ thay đổi thế nào khi chúng ta bước vào thời đại mà trí tuệ con người bị vượt trội trên mọi lĩnh vực ? Các phóng viên của Nikkei đã phỏng vấn giáo sư hưu trí Geoffrey Hinton của Đại học Toronto, người được mệnh danh là "Bố già của nghiên cứu AI", tại nhà riêng của ông ở Canada để thảo luận về tương lai của AI và nhân loại.

Dưới đây là bản biên tập nội dung cuộc phỏng vấn của Nikkei với Hinton.

Nikkei : Tại sao ông lại rời Google, dù ông chịu trách nhiệm phát triển AI ?

Geoffrey Hinton : Tôi đã nói chuyện với sếp của mình tại Google về việc nghỉ hưu bởi tôi đã 75 tuổi rồi, và về cả nỗi lo về mối đe dọa sống còn từ AI. Tôi cũng muốn được tự do nói chuyện công khai về điều đó.

Ông ấy bảo tôi "Tại sao ông không ở lại Google và giải quyết mối đe dọa sống còn đó ?" Nhưng tôi muốn nghỉ hưu. Nếu anh làm việc cho một công ty, ngay cả khi công ty không trực tiếp chỉ thị anh phải nói gì, anh cũng không thực sự được tự do nói về điều anh tin. Anh phải suy nghĩ đến lợi ích của công ty.

Nikkei : Tại sao ông nghĩ AI có thể trở thành mối đe dọa đối với nhân loại ?

Geoffrey Hinton : Anh có thể chỉ định một mục tiêu mà anh cho là tốt, nhưng AI có thể thực hiện mục tiêu đó theo cách không tốt lắm. Một ví dụ đơn giản là, giả sử anh có một AI siêu thông minh và anh nói với nó rằng mục tiêu của anh là ngăn chặn biến đổi khí hậu. Tôi đoán điều đầu tiên nó nhận ra sẽ là việc anh cần loại bỏ con người. Thế nên, hãy cẩn thận khi xác định mục tiêu.

Giả sử có sự cạnh tranh giữa các AI khác nhau. Một AI trở nên thông minh hơn bằng cách xem xét nhiều dữ liệu hơn, và để làm được điều đó, nó cần rất nhiều trung tâm dữ liệu, rất nhiều tài nguyên. Vì vậy, trong cuộc cạnh tranh, hai AI cạnh tranh với nhau để giành tài nguyên, ai nhận được nhiều tài nguyên hơn sẽ làm tốt hơn. Đó sẽ là một loại quá trình tiến hóa, trong đó AI cạnh tranh với nhau, còn con người chúng ta sẽ bị bỏ lại thật xa.

Nhiều người nói rằng "Sao không tạo ra một công tắc lớn và cứ thế tắt nó đi ?" Chà, nếu AI thông minh hơn chúng ta, và chừng nào chúng còn có thể nói chuyện với chúng ta, thì chúng sẽ có thể thuyết phục người chịu trách nhiệm quản lý công tắc rằng việc tắt công tắc là một ý tưởng rất tồi.

Nikkei : Sinh viên của ông, người đồng sáng lập OpenAI Ilya Sutskever, đã cố gắng nhưng thất bại trong việc loại bỏ CEO OpenAI Sam Altman vào tháng 11/2023. Nguyên nhân là do mối đe dọa mà AI gây ra cho nhân loại.

Geoffrey Hinton : Cậu ấy rất quan tâm đến vấn đề an toàn. OpenAI là một trường hợp mà trong đó mọi thứ đều được sắp xếp để ưu tiên tính an toàn. Sứ mệnh của công ty kiểm soát phần hoạt động vì lợi nhuận của OpenAI cũng là sự an toàn. Nhưng ngay cả thế, lợi nhuận vẫn xếp cao hơn an toàn.

Hồi năm 2012, dường như những bộ óc kỹ thuật số này vẫn chưa tốt bằng con người. Chúng có thể đạt được khả năng nhận dạng vật thể và hình ảnh gần bằng con người, nhưng vào thời điểm đó, chúng tôi không nghĩ chúng có thể xử lý ngôn ngữ và hiểu những thứ phức tạp. Ilya đã thay đổi suy nghĩ trước tôi. Và hóa ra cậu ấy đã đúng.

Nikkei : Liên Hiệp Quốc đã quyết tâm hành động khẩn cấp liên quan đến quy định về chuyển hướng quân sự của AI tiên tiến.

Geoffrey Hinton : Sẽ có những vũ khí nguy hiểm, tự động, và gây chết người. Tôi khá chắc điều ấy sẽ xảy ra một lúc nào đó trong 10 năm tới. Lúc đó, người ta có thể kiểm soát chúng, giống như vũ khí hóa học. Chúng vẫn được sử dụng, nhưng không phổ biến như trong Thế chiến I. Nghĩa là hiệp định quốc tế về vũ khí hóa học đã có phát huy tác dụng. Hy vọng chúng ta có thể đạt được điều tương tự khi sử dụng robot tác chiến bằng AI. Nhưng tôi không nghĩ điều đó sẽ xảy ra cho đến khi chúng được đưa vào sử dụng.

Có một số điểm chung, mà tất cả các quốc gia đều có thể đồng ý, đó là chúng ta không muốn AI lên thống trị. Tất cả các quốc gia có thể chia sẻ nghiên cứu và thống nhất về các chính sách được thiết kế để ngăn chặn AI thống trị. Trong giai đoạn đỉnh điểm của Chiến tranh Lạnh, Nga và Mỹ đã chia sẻ những thông tin nhất định để ngăn chặn chiến tranh hạt nhân, bởi vì chiến tranh hạt nhân rõ ràng là có hại cho cả hai bên. Họ muốn ngăn chặn nó và họ đã thành công trong việc ngăn chặn nó.

Nikkei : Các AI tương tác, chẳng hạn như ChatGPT do OpenAI phát triển, có hiểu được ngôn ngữ con người hay không ?

Geoffrey Hinton : Tôi nghĩ chúng thực sự hiểu được. Tôi đã tạo ra mô hình ngôn ngữ đầu tiên với mạng thần kinh nhân tạo vào năm 1985. Nó được thiết kế như một mô hình về cách bộ não con người hiểu. Hầu hết những người nói rằng AI không hiểu đều không có một lý thuyết rõ ràng về cách con người chúng ta hiểu.

Nikkei : Ông từng cho rằng AI có thể hành động như thể nó hiểu ngôn ngữ, nhưng thực tế nó không hiểu.

Geoffrey Hinton : Tôi luôn lấy việc liệu AI có thể hiểu được một câu nói đùa hay không làm tiêu chí để đánh giá liệu nó có thực sự hiểu được mọi thứ hay không. Chatbot mà Google đã tạo ra vào năm 2022, PaLM, có thể hiểu tại sao một câu nói đùa lại buồn cười. Tôi đã yêu cầu nó giải thích một số câu đùa khác nhau và nó có thể giải thích tất cả.

Hinton đã xây dựng nền tảng học sâu và công nghệ cốt lõi cho trí tuệ nhân tạo. (Ảnh của Katsuyoshi Tanaka)

Nikkei : Ông có nghĩ rằng hiểu biết của chúng ta về loài người cũng đã thay đổi thông qua nghiên cứu về AI không ?

Geoffrey Hinton : Tôi nghĩ quá trình xây dựng các mạng thần kinh nhân tạo đã giúp chúng ta khám phá ra nhiều điều về cách thức hoạt động của bộ não. Chẳng hạn, một số triết gia và nhà ngôn ngữ học cho rằng ngôn ngữ là thứ [máy móc] không thể học được, mà đòi hỏi phải tiến hóa, phải thuộc về bản năng. Nhưng điều đó hóa ra là hoàn toàn không đúng.

Suốt 50 năm, tôi đã phát triển nhiều mạng thần kinh nhân tạo, cố gắng làm cho chúng giống bộ não hơn. Và tôi luôn tin rằng nếu chúng càng giống bộ não con người thì càng tốt, vì bộ não hoạt động tốt hơn nhiều so với mạng thần kinh. Nhưng đầu năm 2023, tôi đã đột ngột thay đổi suy nghĩ của mình.

Con người có thể cố gắng chia sẻ kiến thức nhưng chúng ta làm việc đó rất chậm. Trong tính toán kỹ thuật số, anh đưa mọi thứ về số 1 và số 0, theo đó kiến thức trở thành bất tử. Nó không phụ thuộc vào bất kỳ phần cứng cụ thể nào.

Các mô hình ngôn ngữ lớn có tất cả lượng kiến thức đó, lượng kiến thức nhiều gấp hàng nghìn lần so với những gì con người chúng ta có, với số lượng kết nối ít hơn khoảng 100 lần, điều này cho thấy AI có thuật toán học tập hiệu quả hơn.

Nikkei : Liệu AI có thể tự nhận thức hoặc có ý thức không ?

Geoffrey Hinton : Tôi nghĩ các chatbot đa phương thức đã bắt đầu có những trải nghiệm mang tính chủ quan.

Tôi cho rằng suy nghĩ của hầu hết mọi người về mô hình não bộ đều sai. Để tôi cho anh một ví dụ : Giả sử tôi uống quá nhiều rượu, và sáng hôm sau thức dậy nhìn thấy những chú voi hồng nhỏ xíu. Tôi sẽ nghĩ điều đó có nghĩa là hệ thống nhận thức của tôi không hoạt động bình thường.

Bây giờ, giả sử tôi có một chatbot đa phương thức và nó có camera và một cánh tay, nên nó có thể chỉ trỏ, hiểu ngôn ngữ, và đã được huấn luyện. Tôi đặt một lăng kính phía trước camera của chatbot để làm cong các tia sáng, rồi đặt một vật thể ở phía trước nó. Nhưng chatbot không biết về lăng kính. Lúc này tôi nói : "Hãy chỉ vào vật thể", rồi lại nói, "Không, đó không phải là vật thể. Vật thể ở ngay trước mặt bạn. Tôi đã đặt một lăng kính trước camera của bạn".

Chatbot sẽ đáp lại, "Ồ, tôi có thấy vật thể đó thực sự ở ngay trước mặt tôi. Nhưng tôi có trải nghiệm chủ quan rằng nó ở đằng kia". Giờ đây, nếu một chatbot nói điều đó thì tôi nghĩ nó sẽ sử dụng từ "trải nghiệm chủ quan" theo cùng một cách chính xác như con người.

Nikkei : Giáo sư Yann LeCun của Đại học New York ở Mỹ, người đồng đoạt Giải Turing với ông, lại phủ nhận khả năng tri thức hoặc tri giác trong AI.

Geoffrey Hinton : Chúng tôi vẫn là bạn bè, nhưng về điểm này chúng tôi hoàn toàn không đồng ý với nhau. Hầu hết mọi người nghĩ rằng AI không có trải nghiệm chủ quan. Con người chúng ta có một điều đặc biệt, đó là ý thức, trải nghiệm chủ quan, hoặc khả năng tri giác, còn AI thì không có thứ đó. Tôi nghĩ quan điểm đó thật sai lầm.

Kosuke Shimizu Kazuyuki Okudaira thực hiện

Nguyên tác : ‘Godfather of AI’ speaks on threat of tech surpassing humanityNikkei Asia, 31/03/2024

Nguyễn Thị Kim Phụng biên dịch

Nguồn : Nghiên cứu quốc tế, 03/04/2024

Additional Info

  • Author Kosuke Shimizu, Kazuyuki Okudaira, Nguyễn Thị Kim Phụng
Published in Diễn đàn

Trong những năm gần đây, sự bùng nổ của Trí tuệ nhân tạo (AI) ngày càng được công chúng quan tâm, ngày càng phổ biến trong mọi lĩnh vực, kể cả nông nghiệp. Các cải tiến từ loại công nghệ này đã mang lại nhiều lợi ích cho nghề nông, tạo ra hy vọng về một nền nông nghiệp tự động hóa thời 4.0.

tritue1

Mô hình bản đồ của Agrisight, sử dụng AI nhằm dự đoán và tối ưu hóa việc thu hoạch và phân phối nông sản, được trưng bày tại Hội chợ quốc tế Nông nghiệp Pháp, ngày 27/02/2024, Paris, Pháp © Chi Phuong

Từ những 1950, 1960, các cải tiến về cơ khí, hóa học đã tạo ra một cuộc cách mạng nông nghiệp. Việc áp dụng thuốc trừ sâu, phân bón, giống cây năng suất cao…, cùng nhiều biện pháp khác cũng đã làm thay đổi đáng kể diện mạo nền nông nghiệp. Tuy nhiên, cùng lúc đó, nông nghiệp cũng bị cáo buộc là một trong những thủ phạm gây ra hiện tượng nóng lên toàn cầu, chịu trách nhiệm cho một phần ba lượng khí phát thải nhà kính (CO2 và metan). Thêm vào đó là tình trạng lạm phát, an ninh lương thực bị đe dọa ( ước tính 2 tỷ người trên thế giới không được tiếp cận thực phẩm đầy đủ). Chưa kể đến phong trào phản đối của giới nông dân Châu Âu từ nhiều tuần qua, bày tỏ bất bình vì điều kiện sinh kế không được bảo đảm.

Trong bối cảnh này, nhà nghiên cứu Asaf Tzachor, thuộc đại học Cambridge của Anh Quốc, cho rằng "mọi con mắt đang đổ dồn vào Trí tuệ nhân tạo". Với những tính năng đã chứng tỏ được trong những năm qua, loại công nghệ này có thể "mở ra một cuộc cách mạng nông nghiệp mới".

Tại Hội chợ Quốc tế Nông Nghiệp Paris lần thứ 60 (24/02-03/03/2024), lần đầu tiên một cuộc thi Hackathon (hack và marathon), cuộc thi phát triển phần mềm, được tổ chức, nhằm giải quyết các vấn đề trong nông nghiệp qua lập trình trong vòng 48 giờ. Và đây cũng là lần đầu tiên Trí tuệ nhân tạo tạo sinh (AI generative, loại trí tuệ có thể tạo ra các dữ liệu mới nhờ những dữ liệu có sẵn) "lấn sân" vào Hội chợ Nông nghiệp.

Với sự hỗ trợ của Mistral AI, công ty chuyên về trí tuệ nhân tạo của Pháp, 8 đội gồm gần 120 người đã tham gia thi đấu, tạo ra loại công cụ giải quyết các vấn đề mà những nông dân có mặt tại sự kiện nêu ra. Họ là những lập trình viên từ các tập đoàn lớn như Crédit Agricole, Groupama, hay từ các công ty công nghệ khởi nghiệp như Ombréa, Rizoa, Chouette Vision. Đội của Rizoa đã tạo ra một chatbot (robot trò chuyện) hỗ trợ nông dân đàm phán giá nông sản.

Trả lời RFI Tiếng Việt, cô Maguélone Parré-Haroche, đại diện của Rizoa, cho biết : "Chúng tôi bắt đầu từ những yêu cầu của nông dân, phàn nàn về những khó khăn trong việc bán các mặt hàng của họ với giá hợp lý, vào thời điểm thích hợp. Chúng tôi cũng biết rằng các bên mua hàng luôn có những thông tin hữu ích cho họ để mua với giá tốt. Do vậy, cần phải có không gian để trao đổi các dữ liệu. Đó là những thông tin khách quan, những dữ liệu thô và không thể tranh cãi, giúp nông dân có thể đàm phán giá với những chỉ số hữu ích". Còn đội của Groupama đã tạo ra Agri AI, một công cụ tính toán rủi ro khí hậu và biết tiên liệu một kế hoạch trồng trọt có khả thi hay không.

Có mặt tại Hội chợ vừa qua, OsFarm , một nền tảng tập hợp các công nghệ mới trong nông nghiệp, giới thiệu bảng điều khiển AgOpenGPS, giúp nông dân điều khiển máy kéo tự động trên nông trại. Mehdi Jaber, nhà sáng lập của Osfarm cho biết có những dữ liệu mà bảng điều khiển thu được và chưa từng được sử dụng. "Cuộc thi Hackaton này đã đưa ra nhiều ý tưởng thú vị về Trí tuệ nhân tạo và chúng tôi có thể tích hợp vào công cụ này, và cũng có thể ứng dụng vào nhiều loại máy móc khác".

Sự bùng nổ của các dự án về Trí tuệ nhân tạo trong những năm gần đây, ví dụ như ChatGPT, robot hội thoại, không chỉ giải đáp các câu hỏi trong nhiều lĩnh vực, mà còn có khả năng tạo ra văn bản hay hình ảnh, đã thúc đẩy ban tổ chức quan tâm nhiều hơn đến công nghệ này.

Đại diện ban tổ chức sự kiện, David Joulin, cho biết cuộc thi này giúp làm sáng tỏ hơn những lợi ích mà các công nghệ tiên tiến, đặc biệt là khả năng của Trí tuệ nhân tạo tạo sinh trong nông nghiệp. Ông David Joulin giải thích : "Hiện nay Trí tuệ nhân tạo đã được sử dụng khá nhiều trong nông nghiệp, ví dụ như trong việc chụp ảnh, phát hiện các loại sâu bệnh, hay phát hiện cỏ dại, tuy nhiên AI tạo sinh vẫn còn mới mẻ trong nông nghiệp. Kết quả của cuộc thi lập trình này đầy hứa hẹn cho tương lai nông nghiệp, bởi vì có những công việc cần 2 giờ làm việc có thể được giải quyết trong vòng vài giây. Chẳng hạn, một công cụ tự động đề xuất luân canh sản xuất, xác định được thu nhập và các rủi ro liên quan. Đó là điều mà tất cả nông dân đều đang yêu cầu. Có đội cũng đã tạo ra công cụ giúp tổng hợp các văn bản pháp lý liên quan đến các câu hỏi, chẳng hạn như nên áp dụng quy định nào cho thửa đất này hay lô đất khác". 

Tính năng đa dạng của AI

David Joulin cũng là đồng sáng lập viên của La Ferme Digitale , một hiệp hội quy tụ nhiều start-up về công nghệ ứng dụng trong nông nghiệp. Ban đầu chỉ gồm 5 công ty khởi nghiệp, hiệp hội nay đã hội tụ hơn 150 doanh nghiệp, tuyển dụng 5000 nhân viên, đưa những loại công nghệ mới đến 200 000 nông dân Pháp.

Được thành lập vào năm 2021, HyperPlan  là một trong những doanh nghiệp thuộc hiệp hội này. Phần mềm mà công ty cung cấp sử dụng những dữ liệu vệ tinh, dữ liệu về thời tiết, với sự hỗ trợ của AI, giúp phân tích, thiết lập báo cáo về những cây trồng nào đang và có thể phát triển ở đâu và khi nào, số lượng và chất lượng ra sao. Ruben Sabah, đồng sáng lập viên của Hyperplan, giải thích : "Chúng tôi sử dụng các thuật toán từ AI để phân tích các hình ảnh từ vệ tinh, ví dụ như xác định ranh giới các thửa đất, nhận diện loại cây trồng trên thửa đất đó trong tất xả các mùa, theo dõi chúng và đưa ra ước tính về sản lượng. Phần mềm này chủ yếu được sử dụng bởi các hợp tác xã nông nghiệp, hoặc các nhà công nghiệp thực phẩm. Họ có thể sử dụng để phân khúc theo vùng hoạt động của doanh nghiệp, giám sát tiềm năng sản xuất của vùng đó. Chúng tôi cũng có thể theo dõi hiệu suất thương mại hay tỷ lệ thị phần".

Ông David Joulin tin rằng các công nghệ tưởng chừng phức tạp nhưng lại rất dễ sử dụng sẽ có thể được nông dân nhanh chóng áp dụng trong nông trường, nhằm cải thiện điều kiện lao động cũng như phát triển nông nghiệp bền vững. Tại Pháp, trong vòng 5 năm, từ 2018 đến 2023, số máy móc phục vụ trong nông nghiệp đã tăng gấp 6 lần . Hiện 18 000 loại máy móc được sử dụng trong ngành chăn nuôi, và ba phần tư trong số đó là để vắt sữa bò tự động.

Hơn nữa, các khả năng của Trí tuệ nhân tạo trong nông nghiệp ngày càng đa dạng, đặc biệt là trong dự báo thời tiết, cung cấp dữ liệu về trạng thái đất, ngăn ngừa nguy cơ xuất hiện bệnh. Ngoài ra còn có những công cụ giúp giám sát cây trồng theo thời gian thực, điều chỉnh nhu cầu tưới tiêu, tính toán lượng phân bón hợp lý, theo dõi sức khoẻ của gia súc, quản lý trang trại… Không chỉ tại Pháp hay Châu Âu, mà tại Mỹ mà ngành nông nghiệp cũng thu hút sự chú ý của giới công nghệ, với khoảng 200 start-up về AI hoạt động trong lĩnh vực này.

Những rủi ro khó lường của AI

Thế nhưng, nhà nghiên cứu Asaf Tzachor , thuộc Trung tâm Nghiên cứu Rủi ro Hiện sinh, thuộc đại học Cambridge của Anh Quốc, cho rằng "cần phải thận trọng khi triển khai loại công nghệ này nhanh chóng và trên diện rộng". Nhà nghiên cứu nêu ra những rủi ro có thể làm tê liệt hệ thống cung ứng lương thực toàn cầu, đặc biệt là tấn công tin tặc. Ví dụ, xói mòn đất gây thiệt hại hơn 40 tỷ đô la ở Hoa Kỳ mỗi năm, do vậy nhiều công cụ được tạo ra để giám sát các lớp đất và bề mặt đất, giúp các trang trại ngăn ngừa thiệt hại. Tuy nhiên, các thiết bị này lại phụ thuộc vào mạng máy tính được kết nối với nhau, và như vậy rất dễ có thể bị phá hoại, bị tin tặc tấn công.

Ngoài ra còn có những rủi ro về lỗi kỹ thuật, lập trình, hoặc độ tin cậy của dữ liệu. Ví dụ, các hệ thống cảm biến không dây, được lắp đặt tại các trang trại, được thiết kế để nhận biết tình trạng của đất trồng, và đưa ra biện pháp cụ thể. Có thể các hệ thống này sẽ ưu tiên cho việc tăng năng suất hơn là bảo vệ sinh thái, như là sử dụng quá nhiều thuốc trừ cỏ, thuốc trừ sâu…, gây hại cho môi trường đất và nước.

Chi Phương

Nguồn : RFI, 06/03/2024

Additional Info

  • Author Chi Phương
Published in Văn hóa

Vit Nam có ngun nhân lc di dào, gii Toán, ham hc hi và nếu có s đu tư và chuyn giao công ngh ca Nvidia, Vit Nam có th tr thành trung tâm trí tu nhân to ln trong khu vc và trên thế gii, mt chuyên gia trong ngành nói vi VOA.

nvidia1

Ông Jensen Huang là ch tch kiêm tng giám đc Tp đoàn Nvidia

Nvidia là tp đoàn sn xut chip ln nht thế gii có tr s M vi giá tr vn hóa gn 1.200 t đô la. Hãng này sn xut ra nhng con chip đóng vai trò then cht trong vic phát trin trí tu nhân to. Lãnh đo tp đoàn này, ông Jensen Huang, mi đây đã có chuyến công tác Vit Nam và đã tiếp xúc Th tướng Phm Minh Chính hôm 10/12. Ti đây, ông Huang nói rng ông mun đưa Vit Nam tr thành mt c đim toàn cu ca hãng, trang mng VnExpress tường thut.

Còn trong bui ta đàm v cơ hi cho Vit Nam trong ngành công nghip bán dn và trí tu nhân to Hà Ni hôm 11/12, ông Huang được trang mng này dn li cho biết Nvidia s hp tác vi các đi tác trong nước đ phát trin h tng trí tu nhân to, tc AI.

"Người Vit Nam rt gii toán, có năng lc phn mm tt và đang có v trí tt đ phát trin bán dn, trí tu nhân to. Nvidia xác đnh Vit Nam là th trường quan trng nên đã đu tư 250 triu đô la", ông Huang được dn li nói.

Ông cho biết c đim ca Nvidia Vit Nam s thu hút nhân tài khp thế gii và góp phn xây dng h sinh thái bán dn và trí tu nhân to ti Vit Nam.

V phn mình, Th tướng Chính đã đ ngh Nvidia h tr Vit Nam xây dng, thc hin chiến lược bán dn quc gia và s lp t công tác thúc đy các tha thun hp tác gia hai bên do ông đng đu.

Nvidia đang là đi tác ca nhiu doanh nghip công ngh ln ca Vit Nam như Viettel, FPT, Vingroup vi doanh thu mi năm khong 500 triu đô la, theo trang mng VnEconomy.

‘Ít cơ hi cho bán dn

Khi được VOA hi v nhng tha thun hp tác vi Nvidia, ông Đ Cao Bo, đng sáng lp, cu phó Tng giám đc và gi là thành viên Hi đng qun tr FPT, nói đó là bí mt kinh doanh ca FPT nên không th tiết l.

Ông Bo bày t hy vng vào tim năng hp tác vi Nvidia trong lĩnh vc trí tu nhân to, đng thi cho rng trong lĩnh vc bán dn, cơ hi hp tác không nhiu.

Theo li gii thích ca ông thì mc dù vn hóa ca Nvidia vượt tri các hãng bán dn khác nhưng doanh thu chưa bng mt na TSMC ca Đài Loan hay Samsung ca Hàn Quc.

"Nvidia không trc tiếp sn xut ra chip mà 100% là đi thuê các công ty Đài Loan, Hàn Quc làm cho h", ông Bo nói vi VOA. "Chưa k công ngh chip ca Nvidia là cao hơn".

"Kh năng công vic Nvidia giao ra nước ngoài có trình đ sn xut thp như Vit Nam là ít hơn hn", ông nói thêm và cho biết nếu có tham gia sn xut chip thì cơ hi hp tác vi các hãng bán dn khác ln hơn Nvidia.

Ông cho rng Vit Nam không th chen chân vào thay thế chui cung ng đã được Nvidia thuê sn xut chip cho h mà ch là tham gia vào công đon thiết kế, kim th hay đóng gói.

"H đã có quy trình vi nhng nhà máy rt ln khp toàn cu, có quy trình, có dây chuyn rt ln ri mà bây gi mình mi chen chân vào thì cơ hi không có", ông nói.

Chưa k đi vi các chip công ngh cao, Nvidia có th không mun chuyn sn xut ra bên ngoài mà ch làm bên trong nước M, cũng theo li cu phó Tng giám đc FPT.

"Nếu bây gi Vit Nam đi vào sn xut gia công (cht bán dn) thì giá tr gia tăng không cao", ông nói thêm.

Hin tp đoàn Intel ca M đang vn hành mt cơ s sn xut th nghim và lp ráp chip ti Thành ph H Chí Minh, còn hãng Amkor có tr s ti Arizona, đang xây dng nhà máy tr giá 1,6 t đô la Bc Ninh, trong khi Synopsis và Marvell Technology đang thành lp các trung tâm thiết kế cht bán dn ti Vit Nam.

Hp tác giúp Vit Nam phát trin kinh tế theo hướng đi mi sáng to và đưa Vit Nam vào chui cung ng cht bán dn toàn cu là mt trong nhng ni dung chính ca quan h Đi tác chiến lược toàn din M-Vit mà Tng thng Joe Biden đã cùng các lãnh đo Vit Nam nâng cp hôm 10/9.

Trung tâm AI

Tuy nhiên, ông Đ Cao Bo cho rng Vit Nam có tim năng hp tác ln vi Nvidia v trí tu nhân to.

"Người Vit có thế mnh là hc hi công ngh mi rt là nhanh. Người Vit có th nhanh chóng hc được và tiếp cn trình đ thế gii và không thua kém các đi th các nước khác", ông ch ra và nói rõ Vit Nam s không theo kp trình đ các nước phát trin mà ch cnh tranh vi các đi th như Malaysia, Philippines hay n Đ, các nước cũng có mc tiêu ging Vit Nam.

Ngoài ra, có truyn thng hc Toán và gii Toán là mt thế mnh ca người Vit trong ngành Trí tu nhân to vn có nn tng là Toán. Ông Bo cho biết người Vit luôn nm trong tp đu các cuc thi Toán quc tế.

Cái mà Vit Nam cn Nvidia, theo ông Bo, là h đt máy ch ln, có tc đ x lý cao, xây dng trung tâm d liu Vit Nam và chuyn giao h thng hc sâu (deep learning) thì Vit Nam có th tr thành trung tâm trí tu nhân to thu hút nhân tài khp nơi trên thế gii.

"Nếu Vit Nam có cơ s h tng trí tu nhân to tt thì có th thu hút ngun lc thế gii đến làm vic".

Khi đó, Vit Nam có th sn xut ra các sn phm trí tu nhân to phc v cho khu vc và thế gii, ông nói thêm.

Ông Bo cho biết máy ch ln có năng lc mnh như vy ch có Nvidia có’ và tn hàng t đô la. "Tin đâu đ đu tư, Nvidia hay Chính ph Vit Nam hay doanh nghip Vit Nam b ra hay c ba bên cùng góp vn là vn đ cn phi bàn", ông nói thêm.

Hơn na, đi vi công ngh ti tân như vy thì có th Vit Nam phi xin phép Chính ph M thì mi được đưa máy ch vào, cũng theo li ông Bo.

Mt ch na mà Nvidia có th giúp đ Vit Nam là đào to ngun nhân lc. Ông Đ Cao Bo cho rng Nvidia có th giúp Vit Nam xây dng chương trình đào to đ tiếp cn các công ngh hin đi nht, cung cp môi trường đ sinh viên có th thc hành, và gi các chuyên gia trí tu nhân to hàng đu sang Vit Nam đ ging dy cho sinh viên.

Ông dn ra mc tiêu ca ông Huang nói là hai bên phi phn đu đ có được 1 triu k sư v trí tu nhân to, không ch Vit Nam mà còn nhân lc đến t các nước khác, đ nhn mnh rng nhu cu nhân lc ca Vit Nam là rt cp thiết.

Khi được hi ti sao ông Jensen Huang li quan tâm đến Vit Nam trong khi các nước khác trong khu vc cũng mun phát trin trí tu nhân to, ông Bo nói mc dù năng lc sn xut ca Vit Nam kém hơn Nht Bn hay Đài Loan rt nhiu nhưng ngun lc Vit Nam nhiu hơn.

Ông ch ra Vit Nam có dân s đông gn 100 triu dân, đa phn là dân s tr, ham hc hi, nhiu gp nhiu ln Malaysia hay Đài Loan trong khi dân s Nht Bn đang suy gim và lão hóa.

"Vit Nam có dân s đông, còn tr li đang rt khát khao làm giàu cho bn thân, cho công ty. H sn sàng làm vic rt chăm ch", ông nói và cho biết nhiu thanh niên Vit Nam sn sàng làm vic 7 ngày mt tun, mi ngày làm vic 12 tiếng.

Khi được hi nhng phát ngôn ca ông Jensen Huang khi Vit Nam v quê hương th hai hay c đim toàn cu ca Nvidia có phi là li l xã giao hay không, ông Bo nói : "Vi mt doanh nhân thành công ln thì người ta không bao gi nói cái gì mà sau này phát hin ra là nói xo".

"Có l đó là mong mun tht s ca ông Jensen nhưng có thành hin thc hay không thì phi cn n lc t c hai phía".

Nguồn : VOA, 16/12/2023

Additional Info

  • Author VOA tiếng Việt
Published in Việt Nam

Các mạng xã hội lớn xóa nội dung "chống Nhà nước" Việt Nam

RFA, 06/10/2023

Các mạng xã hội lớn gồm YouTube, TikTok và Facebook trong khoảng thời gian chỉ một tháng đã xóa gần 800 bài đăng có nội dung bị cơ quan chức năng Việt Nam cho là "chống Nhà nước" hay "không trung thực".

nxh1

YouTube xóa chừng 380 video, Facebook xóa hơn 360 bài đăng ; TikTok xóa hơn 30 đường dẫn từ giữa tháng tám đến giữa tháng 9. Reuters

Mạng báo Thanh Niên loan tin vừa nêu ngày 6/10 dẫn nguồn từ Bộ Thông tin- Truyền thông Việt Nam. Cụ thể, YouTube xóa khoảng 380 video, Facebook xóa hơn 360 bài đăng ; TikTok xóa hơn 30 đường dẫn từ giữa tháng tám đến giữa tháng chín.

Nội dung bị xóa được nói là "không trung thực, tiêu cực… chống lại đảng, nhà nước, tổ chức, cá nhân…, xúc phạm lãnh tụ".

AFP cũng loan tin với nhận định rằng chính phủ do đảng cộng sản duy nhất lãnh đạo tại Việt Nam không dung thứ bất đồng và những hạn chế đối với các mạng xã hội được sử dụng nhằm giới hạn quyền tự do biểu đạt. Toàn bộ truyền thông bị đặt dưới sự kiểm soát của Nhà nước và những tiếng nói chỉ trích trên mạng bị thường xuyên theo dõi.

Vào ngày thứ năm 5/10, Bộ Thông tin- Truyền thông Việt Nam công bố kết luận kiểm tra toàn diện suốt bốn tháng qua đối với TikTok. Theo đó quy trình kiểm duyệt nội dung của mạng xã hội này bị cho là chưa hiệu quả, bỏ qua một số nội dung vi phạm luật phát Việt Nam.

AFP có yêu cầu TikTok, Meta- hãng mẹ của Facebook, và Google- chủ kênh YouTube, bình luận về tin vừa nêu ; nhưng chưa nhận được trả lời.

Hồi năm 2020, tổ chức Ân Xá Quốc tế (Amnesty International) công bố phúc trình với cảnh báo Facebook và Google nhanh chóng trở thành những công cụ "phi nhân quyền" tại Việt Nam. Tổ chức này cáo buộc các hãng lớn này hỗ trợ cơ quan chức năng kiểm duyệt các tiếng nói đối lập ôn hòa và bày tỏ chính kiến tại Việt Nam.

Nguồn : RFA, 06/10/2023

****************************

Tự do internet 2023 : Sức mạnh đàn áp của Trí tuệ nhân tạo

RFA, 04/10/2023

Hôm 4/10/2023, Freedom House, một think tank ở Washington DC, tổ chức ra mắt báo cáo "Tự do Internet 2023 : Sức mạnh đàn áp của Trí tuệ nhân tạo". Việt Nam là một trong những trường hợp được khảo sát với các quan ngại về việc đàn áp trên mạng. 

tudointernet0

Chat GPT bị cấm ở Trung Quốc (ảnh minh họa) - Reuters

Báo cáo khảo sát giai đoạn từ tháng 6/022 đến tháng 5/2023 ở 70 quốc gia, chiếm khoảng 80% lượng người dùng internet toàn cầu. Theo báo cáo này, nhìn chung, tự do internet toàn cầu đã suy giảm năm thứ 13 liên tiếp. Có những trường hợp đàn áp mạnh mẽ như Iran đã đóng cửa dịch vụ internet, chặn WhatsApp và Instagram. Miến Điện thậm chí còn "vượt qua" Trung Quốc trong việc đàn áp tự do trên môi trường internet. Philippines giai đoạn Tổng thống Duterte sắp mãn nhiệm đã sử dụng luật chống khủng bố để chặn các trang tin chỉ trích chính quyền của mình. 

Trả lời câu hỏi của RFA tại sự kiện ra mắt báo cáo 2023, nhà nghiên cứu cấp cao tại Freedom House là Kian Vesteinsson cho biết Freedom House đánh giá Việt Nam chỉ đạt 22 điểm trên thang điểm 100 về quyền tự do Internet. Với điểm số này, Việt Nam bị xếp hạng là "không tự do". 

Năm 2022, Việt Nam cũng ở thứ hạng tương tự : 22/100 điểm.

Kiểm duyệt và tung tin giả bằng AI (Trí tuệ nhân tạo)

"Dư luận viên" không phải là sản phẩm riêng của Việt Nam. Theo báo cáo, trên thế giới có ít nhất 47 chính phủ đã triển khai các "dư luận viên" (commentators) để thao túng các cuộc thảo luận trực tuyến theo hướng có lợi cho chính quyền. Con số này gấp đôi so với một thập kỷ trước. 

Trong bối cảnh đó, Trí tuệ nhân tạo (AI) có nguy cơ làm cho các chiến dịch sản xuất và phát tán thông tin sai lệch lên trực tuyến trở nên mạnh mẽ hơn. Các công cụ dựa trên AI có thể tạo ra văn bản, âm thanh, hình ảnh, video một cách nhanh chóng và dễ dàng. Theo báo cáo, có ít nhất 16 chính phủ trên thế giới đã sử dụng công nghệ mới này để tạo ra các thông tin sai lệch để gieo rắc nghi ngờ, bôi nhọ đối thủ hoặc lèo lái các cuộc tranh luận của công chúng trên mạng. 

Báo cáo chỉ ra rằng các "điểm nóng" do do nội dung được tạo ra bởi AI thường xuất hiện trong những thời điểm chính trị nhạy cảm như bầu cử hoặc các cuộc khủng hoảng. Báo cáo dẫn ra ví dụ hồi tháng 5, 2023, cựu thủ tướng Pakistan là Imran Khan đã chia sẻ một video được tạo ra bởi AI về hình ảnh một phụ nữ dũng cảm đối đầu với cảnh sát. Đó là thời điểm ông Khan và chính quyền đương nhiệm đang leo thang xung đột. Bằng cách phát tán một video do AI tạo ra như vậy, ông ta truyền đi thông điệp rằng "phụ nữ Pakistan ủng hộ tôi". Một trường hợp khác xảy ra ở Nigeria, một đoạn âm thanh do AI tạo ra, ám chỉ một ứng viên tổng thống có kế hoạch gian lận bỏ phiếu. Những sản phẩm như vậy có nguy cơ gây ra thù hận giữa các đảng phái và khắc sâu nghi ngờ của người dân về tính liêm chính của hệ thống bầu cử. Ở Mỹ gần đây cũng đã xuất hiện nhiều sản phẩm truyền thông có tính bôi nhọ đối thủ chính trị được tạo ra bởi AI như vậy. 

AI cũng giúp các chính quyền độc tài nâng cao năng lực kiểm duyệt. Những hệ thống giám sát tinh vi bằng công nghệ cao có thể giúp họ nhanh chóng truy lùng các dấu hiệu bất đồng chính kiến trên mạng xã hội. Họ có thể kết hợp Dữ liệu lớn (Big data) với tính năng quét khuôn mặt để xác định và theo dõi những người biểu tình ủng hộ dân chủ. Các chính quyền cũng đang nỗ lực làm cho các công ty cung cấp ứng dụng phải tuân thủ hoặc tăng cường hệ thống kiểm duyệt của mình. 

Khung pháp lý ở ít nhất 21 quốc gia bắt buộc hoặc khuyến khích các nền tảng kỹ thuật số triển khai học máy để loại bỏ những phát ngôn mà chính quyền không ưa thích về chính trị, xã hội và tôn giáo. Tuy nhiên, AI vẫn chưa thay thế hoàn toàn các phương pháp kiểm soát thông tin xưa cũ. Có đến 41 chính phủ được khảo sát vẫn áp dụng phương pháp cũ là chặn các trang web có nội dung lành mạnh, đúng đắn, cần được bảo vệ theo tiêu chuẩn tự do biểu đạt trong luật nhân quyền quốc tế. 

Ngay cả ở những quốc gia có môi trường xã hội và chính trị dân chủ hơn như Hoa Kỳ và một số nước Châu Âu, các chính phủ đang cân nhắc áp đặt những chế tài đối với quyền truy cập vào một số trang web hoặc nền tảng truyền thông mạng xã hội. Một số đã thực thi điều đó. 

Trường hợp Việt Nam 

Báo cáo nhắc đến việc Việt Nam lo ngại người dân sử dụng Chat GPT để tạo ra những nội dung "xuyên tạc", "bôi nhọ", "chống nhà nước". Bước đi này của Việt Nam cũng tương tự như Trung Quốc cấm các tập đoàn công nghệ nước này như Tencent và Ant Group tích hợp các công cụ của Chat GPT và các công cụ tương tự. Hãng Apple của Mỹ đã xóa hơn 100 ứng dụng tương tự như ChatGPT khỏi cửa hàng ứng dụng Trung Quốc để tuân thủ các quy định của nước này. 

Theo báo cáo, ở những nước độc tài, hệ thống kiểm duyệt sử dụng công nghệ AI có thể "đóng lại những khoảng trống ít ỏi còn lại" của quyền tự do bày tỏ ý kiến trên mạng. Báo cáo cho biết :

"Chính phủ Việt Nam đã áp đặt các biện pháp kiểm soát chặt chẽ trên các nền tảng kỹ thuật số để chế tài những người bất đồng chính kiến, hạn chế việc đưa tin độc lập và các hình thức phát ngôn chính trị - xã hội khác. Ví dụ, các nhà chức trách Việt Nam được cho là đã buộc Meta phải loại bỏ mọi lời chỉ trích đối với các quan chức Đảng cộng sản Việt Nam cụ thể trên nền tảng mạng xã hội Facebook". 

Các chuyên gia cũng nhấn mạnh những quy định mà Việt Nam thông qua vào tháng 8 năm 2022 đã trao quyền cho Bộ Công an chặn các nền tảng mạng xã hội không tuân thủ yêu cầu xóa nội dung "độc hại" trong vòng một ngày, kể từ ngày được thông báo. Họ cho rằng điều đó sẽ đẩy nhanh việc xóa nội dung trên diện rộng với tốc độ rất nhanh. Tốc độ như vậy chỉ có thể đạt được thông qua công nghệ tự động hóa được hỗ trợ bởi AI. Mặt khác, các nhà chức trách Việt Nam đã yêu cầu rõ ràng rằng các doanh nghiệp công nghệ phải sử dụng AI để loại bỏ cái gọi là nội dung "độc hại".

Theo báo cáo, không chỉ ở Việt Nam, ngay cả những chính phủ có năng lực công nghệ kém hơn, các biện pháp như vậy cũng đang ngày càng phổ biến. 

Cần phải sử dụng AI để bảo vệ quyền tự do 

Phát biểu tại sự kiện ra mắt báo cáo, các chuyên gia của Freedom House cho rằng các chính phủ và người dân vừa phải bảo đảm quyền tự do Internet vừa phải chống việc sản xuất tin giả trên môi trường trực tuyến. 

Các chuyên gia cho rằng để bảo vệ quyền tự do Internet, những người ủng hộ dân chủ nên thiết lập các tiêu chuẩn mạnh mẽ dựa trên nhân quyền, tính minh bạch và trách nhiệm giải trình. Các tiêu chuẩn này cần được áp dụng cho cả các chủ thể nhà nước và phi nhà nước tham gia vào phát triển hoặc triển khai các công cụ AI. 

Mặt khác, theo các nhà nghiên cứu, các quốc gia dân chủ cần trao cho các tổ chức xã hội dân sự vai trò dẫn đầu trong việc phát triển, xây dựng chính sách mới và cung cấp cho họ các nguồn lực họ cần để giám sát các hệ thống AI mới. AI có khả năng gây hại đáng kể, nhưng bằng cách đó, các quốc gia dân chủ có thể làm cho AI đóng vai trò bảo vệ các giá trị tự do.

Nguồn : RFA, 04/10/2023

Published in Việt Nam

Báo động về những nguy cơ của trí tuệ nhân tạo đối với nhân loại

Các ứng dụng về trí tuệ nhân tạo đã có từ lâu, nhưng kể từ khi ứng dụng nổi tiếng ChatGPT được tung lên mạng vào tháng 11/2022, công chúng và các doanh nghiệp bắt đầu quan tâm đến cái gọi là trí tuệ nhân tạo tạo sinh (generative), tức là có thể tự tạo ra các nội dung : văn bản, hình ảnh, âm thanh, video, như con người, thậm chí còn nhanh hơn con người rất nhiều.

tritue1

Ứng dụng ChatGPT trên màn hình một điện thoại iPhone tại một cửa hàng ở New York, Hoa Kỳ, ngày 18/05/2023. AP - Richard Drew

Phát triển với tốc độ chóng mặt

Đúng là các ứng dụng trí tuệ nhân tạo hiện nay đang được phát triển với tốc độ chóng mặt, với những khả năng suy nghĩ như con người ngày càng hoàn thiện và như vậy là trong tương lai có thể thay thế con người trong rất nhiều ngành nghề. 

Như ta đã thấy với ChatGPT của công ty OpenAI, ứng dụng này có khả năng viết những bài luận văn rất sâu sắc, độc đáo, biết làm những bài thơ tuyệt tác và có thể dịch mọi thứ tiếng chỉ trong vài giây.

Đây là một tiến bộ khoa học vô cùng to lớn, hỗ trợ cho nhân loại rất nhiều, nhưng cũng đang gây lo ngại ngày càng nhiều. Ngày 30/05/2023, một nhóm bao gồm các nhà doanh nghiệp và các chuyên gia đã ra một tuyên bố trên mạng cảnh báo về nguy cơ "tận diệt" đối với nhân loại do sự bùng nổ nhanh chóng của trí tuệ nhân tạo. Bản tuyên bố được đăng trên trang web của Center for AI Safety (Trung tâm về an toàn trí tuệ nhân tạo), một tổ chức bất vụ lợi, đặt trụ sở tại Hoa Kỳ. 

Tuyên bố của họ nhấn mạnh, việc phòng chống các nguy cơ của trí tuệ nhân tạo phải được xem là một ưu tiên đối với thế giới, ngang tầm với các nguy cơ khác, như các đại dịch hay chiến tranh hạt nhân.

Điều đáng nói là trong số các chuyên gia ký tên vào bản tuyên bố nói trên có cả Sam Atman, người sáng chế ra ứng dụng trí tuệ nhân tạo được sử dụng phổ biến nhất hiện nay Chat GPT. Chính ông Atman khi ra điều trần trước một ủy ban của Quốc hội Mỹ vào giữa tháng 5 đã cho rằng các chính phủ cần phải khẩn cấp can thiệp để "hạn chế các nguy cơ" liên quan đến công nghệ trí tuệ nhân tạo.

Cha đẻ của trí tuệ nhân tạo cũng lo ngại

Cùng ký tên vào tuyên bố còn có Geoffrey Hinton, được xem là một trong những cha đẻ của trí tuệ nhân tạo. Vào tháng đầu tháng 5, Hinton đã rời bỏ chức vụ của ông trong tập đoàn Internet Google sau khi cảnh báo về các nguy cơ của trí tuệ nhân tạo. 

Trên nhật báo The New York Times vào lúc đó, ông Hilton đã cho rằng những tiến bộ trong lĩnh vực trí tuệ nhân tạo đang đặt ra những nguy cơ sâu rộng đối với xã hội và nhân loại. 

Trước đó, vào tháng 3, nhà tỷ phú Elon Musk, một trong những người sáng lập công ty OpenAI, cùng với hàng trăm chuyên gia thế giới đã yêu cầu nên tạm ngưng 6 tháng các nghiên cứu mới về các ứng dụng trí tuệ nhân tạo, vì họ cũng nhận thấy lĩnh vực này chứa đựng nhiều "nguy cơ to lớn đối với nhân loại".

Chỉ cần đưa ra một ví dụ nhỏ : Vào giữa tháng 5 vừa qua, một bức ảnh giả được tạo ra từ một ứng dụng trí tuệ nhân tạo, chụp cảnh một vụ nổ ở Lầu Năm Góc, đã nhanh chóng được được phát tán rộng rãi trên mạng xã hội Twitter, khiến các thị trường chứng khoán bị xáo trộn trong 10 phút, trước khi bộ Quốc Phòng lên tiếng cải chính là Lầu Năm Góc không hề bị tấn công.

 Trí tuệ nhân tạo và "fake news" mùa bầu cử

Bản thân người sáng chế ChatGPT, Sam Altman trong thời gian qua đã liên tục cảnh báo là trí tuệ nhân tạo có thể gây nhiều thiệt hại nghiêm trọng cho thế giới, chẳng hạn như qua việc thao túng các cuộc bầu cử. 

Trước mắt, trí tuệ nhân tạo đang làm xáo trộn chính trường nước Mỹ trước cuộc bầu cử tổng thống vào năm 2024, rất có thể là vẫn giữa hai đối thủ Donald Trump và Joe Biden. 

Chính trí tuệ nhân tạo đã được sử dụng để tạo ra bức ảnh chụp Trump bị cảnh sát bắt giữ giống như thật, gây xôn xao dư luận trong một thời gian. Hay bịa ra một băng ghi âm Trump và Biden chửi nhau tơi tả. Chưa hết : Cũng trên các mạng đã xuất hiện một video nêu bật tương lai "kinh hoàng" của nước Mỹ nếu Biden tái đắc cử. Tác giả không ai khác hơn là trí tuệ nhân tạo.

Các chuyên gia đang rất lo ngại là trong mùa bầu cử sắp tới tại Hoa Kỳ, các tin giả do trí tuệ nhân tạo sản xuất sẽ tràn ngập, vì đây sẽ là cuộc bầu cử đầu tiên mà trí tuệ nhân tạo được sử dụng phổ biến. Cả hai phe Dân Chủ và Cộng Hòa chắc chắn sẽ nhờ đến trí tuệ nhân tạo để, hoặc là thu hút thêm cử tri, hoặc "sản xuất" các truyền đơn, các bài diễn văn, một cách nhanh chóng, rẻ tiền, mà lại không bó buộc về pháp lý.

Nhưng nguy hiểm hơn cả, theo ông Joe Rospars, người sáng lập công ty tư vấn tranh cử Blue State, trả lời hãng tin AFP, với công nghệ trí tuệ nhân tạo, những kẻ xấu có thêm công cụ để gieo rắc hận thù, gây nhiễu thông tin với cả báo chí và công chúng. "Đại dịch" fake news vốn đã gây nhiều tác hại trong chiến dịch tranh cử của Donald Trump sẽ càng trầm trọng hơn trong mùa bầu cử tổng thống Mỹ năm tới. 

Đưa trí tuệ nhân tạo vào khuôn khổ pháp lý

Những hiểm họa mà trí tuệ nhân tạo đặt ra đang buộc các lãnh đạo nhiều nước trên thế giới phải cấp tốc tìm cách đối phó. 

Liên Hiệp Châu Âu hiện đang muốn trở thành định chế đầu tiên trên thế giới đưa ra một khuôn khổ pháp lý để hạn chế những tác hại của trí tuệ nhân tạo. Cách đây hai năm, Ủy Ban Châu Âu đã đề nghị một dự luật theo hướng này.

Trọng tâm của dự luật về trí tuệ nhân tạo là một loạt các quy định chỉ áp dụng đối với các ứng dụng mà chính các công ty cho là "nguy cơ cao" dựa trên các tiêu chuẩn của nhà lập pháp. Đối với Ủy Ban Châu Âu, nói chung đó là toàn bộ những ứng dụng được dùng trong những lĩnh vực nhạy cảm như cơ sở hạ tầng thiết yếu, giáo dục, nhân sự, giữ gìn trật tự hay quản lý nhập cư.

Vấn đề là tiến trình xem xét bởi các nước thành viên và Nghị Viện Châu Âu kéo dài quá lâu. Nếu luật có được thông qua trước cuối năm nay thì cũng phải chờ đến sớm nhất là cuối năm 2025, luật mới có hiệu lực.

Trong cuộc gặp tại Bruxelles hôm 24/05 vừa qua, ủy viên Châu Âu đặc trách công nghệ số Thierry Breton và chủ nhân tập đoàn Google Sundar Pichai đã đã đồng ý với nhau là không thể chờ cho đến khi luật của Liên Âu được ban hành, mà phải bàn ngay việc soạn thảo những quy định mới để đưa trí tuệ nhân tạo vào khuôn khổ. Các cuộc thảo luận sẽ được thực hiện với những công ty tự nguyện trong ngành phát triển ứng dụng trí tuệ nhân tạo.

Trong vấn đề này, Pháp là một trong những quốc gia đi đầu vì đã cùng với Canada tung ra Đối tác Thế giới về Trí tuệ Nhân tạo. Vận hành theo phương thức giống như Nhóm chuyên gia liên chính phủ về biến đổi khí hậu GIEC, đối tác này hiện quy tụ 28 quốc gia, có nhiệm vụ đưa ra những đánh giá khoa học và những khuyến cáo đến các chính phủ. 

Hôm 23/05 vừa qua, tổng thống Emmanuel Macron đã tiếp Sam Atman, người sáng chế ra ChatGPT, tại điện Elysée để thảo luận với ông về những hướng phát triển trí tuệ nhân tạo trong tương lai cũng như về tầm quan trọng của việc đề ra các quy định luật lệ để bảo vệ người sử dụng và bảo vệ nền dân chủ trước những nguy cơ sử dụng trí tuệ nhân tạo một cách sai lạc. 

Nhóm G7 nhập cuộc

Nhưng đây không còn là một vấn đề của riêng Châu Âu mà đã trở thành vấn đề của cả thế giới, mà trước hết là của những nước phát triển nhất. 

Hôm thứ tư tuần này, 31/05/2023, Hoa Kỳ và Liên Hiệp Châu Âu đã mở một cuộc họp cấp cao về vấn đề này tại Lulea, Thụy Điển. Trước đó, bà Margrethe Vestager, ủy viên Châu Âu về cạnh tranh và cũng người đặc trách các vấn đề công nghệ trong Liên Hiệp Châu Âu, đã tuyên bố là Liên Âu và Hoa Kỳ sẵn sàng tăng cường hợp tác về trí tuệ nhân tạo nhằm đề ra các tiêu chuẩn tối thiểu trước khi các luật về lĩnh vực này được ban hành.

Tại cuộc họp thượng đỉnh ở Hiroshima vừa qua, các lãnh đạo nhóm G7 cũng đã thông báo sắp tới đây sẽ thành lập một "nhóm làm việc" về trí tuệ nhân tạo để thảo luận về việc ""sử dụng một cách có trách nhiệm" các công cụ này, cũng như thảo luận về các nguy cơ từ trí tuệ nhân tạo, trong đó có nguy cơ tin giả.

Thanh Phương

Nguồn : RFI, 03/06/2023

Additional Info

  • Author Thanh Phương
Published in Diễn đàn

Liên Hiệp Châu Âu và Hoa Kỳ sẵn sàng tăng cường hợp tác về trí tuệ nhân tạo nhằm quy định các chuẩn mực tối thiểu trước khi thiết lập các luật lệ liên quan đến ngành này. Trong một cuộc họp thông tin vào hôm qua, 23/05/2023, bà Margrethe Vestager, Ủy Viên Châu Âu về cạnh tranh, chuyên trách công nghệ trong EUn đã thông báo như trên.

tritue1

Ảnh minh họa ngày 04/05/2023 : Logo của Google, Microsoft và Alphabet và trí tuệ nhân tạo - AI. Reuters - DADO RUVIC

Trong thời gian qua, Hoa Kỳ và Liên Hiệp Châu Âu đã cố tìm cách tăng cường hợp tác công nghệ và thương mại, trong bối cảnh hai bên không có một thỏa thuận tự do mậu dịch song phương. Trí tuệ nhân tạo hiện là một trong những mảng hợp tác quan trọng, và sẽ là một chủ đề chính tại cuộc họp của Hội đồng Thương Mại và Công Nghệ EU-Hoa Kỳ tại Thụy Điển vào thứ Ba 30/05.

Đối với bà Margrethe Vestager, đồng thời là phó chủ tịch Ủy Ban Châu Âu, trong tình hình hiện nay, vấn đề đặt ra những khuôn khổ luật lệ cho trí tuệ nhân tạo đã trở nên "khẩn cấp".

Từ Bruxelles, Thông tín viên RFI Pierre Benazet giải thích :

"Các chuẩn mực kỹ thuật" được nhóm G7 đề nghị hôm thứ Bảy 20/05 vừa qua để giúp mạng internet tiếp tục được tin tưởng sẽ dẫn đến một thỏa thuận Liên Âu-Hoa Kỳ đầu tiên vào tuần tới nhằm thiết lập các quy tắc giám sát về sinh trắc học hoặc nhận dạng khuôn mặt.

Hoa Kỳ và Liên Hiệp Châu Âu dự trù một hệ thống luật lệ chung và vấn đề này sẽ là trọng tâm cuộc họp của Hội đồng Thương Mại và Công Nghệ Mỹ-EU vào thứ Ba tới đây. Cơ chế này đã trở thành một diễn đàn để Hoa Kỳ và Châu Âu thiết lập các quan hệ hợp tác mũi nhọn, để bù đắp cho sự thiếu vắng một hiệp định thương mại tự do giữa hai bên.

Mỹ và Liên Âu đều khẳng định hai bên có cùng quan điểm trong việc bảo vệ các hoạt động dân chủ trên internet. Hai bên đã ký thỏa thuận hợp tác nghiên cứu trong năm lĩnh vực sử dụng trí tuệ nhân tạo : Dự báo thời tiết và hiện tượng khí hậu khắc nghiệt, quản lý các kế hoạch ứng phó khẩn cấp, cải thiện ngành y tế và y học, tối ưu hóa mạng lưới điện và tối ưu hóa ngành nông nghiệp".

Trọng Nghĩa

Additional Info

  • Author Trọng Nghĩa
Published in Quốc tế

‘B già AI’ ri Google, cnh báo v các him ha công ngh

AP, VOA, 03/05/2023

Nhà nghiên cu tiên phong và được mnh danh là "B già ca AI", Geoffrey Hinton, ngh vic ti Google đ có th t do lên tiếng v mi nguy him ca công ngh mà ông đã giúp to ra.

ai1

Geoffrey Hinton, "B già ca AI", chp nh trước tr s ca Google Mountain View, California, ngày 25/3/2015.

Trong s nghip nhiu chc năm ca mình, công trình tiên phong ca ông Hinton v hc sâu và mng thn kinh đã giúp đt nn móng cho phn ln công ngh AI mà chúng ta thy ngày nay.

Đã có mt lot các gii thiu v AI trong nhng tháng gn đây. Công ty khi nghip OpenAI có tr s ti San Francisco, công ty phát trin ChatGPT được Microsoft hu thun, đã tung ra mô hình trí tu nhân to mi nht ca mình, GPT-4, vào tháng Ba. Nhng công ty công ngh khng l khác đã đu tư vào các công c cnh tranh bao gm c "Bard" ca Google.

Ông Hinton nói vi BBC rng mt s mi nguy him ca chatbot AI là "khá đáng s". "Bây gi nó chưa thông minh hơn chúng ta nhưng s chng bao lâu na đâu".

Trong mt cuc phng vn vi t MIT Technology Review, ông Hinton cũng ch ra "nhng k xu" có th s dng AI theo nhng cách có th gây tác đng bt li cho xã hi chng hn như thao túng bu c hoc xúi gic bo lc.

Ông Hinton, 75 tui, cho biết ông đã ngh vic ti Google đ có th phát biu ci m v nhng ri ro tim n khi không còn làm vic cho công ty công ngh khng l.

"Tôi mun nói v các vn đ an toàn ca AI mà không phi lo lng v s nh hưởng ti hot đng kinh doanh ca Google", ông nói vi MIT Technology Review. "Chng nào tôi còn được Google tr tin, thì tôi không th làm điu đó".

K t khi thông báo v s ra đi ca mình, ông Hinton đã khng đnh rng Google đã "hành đng rt có trách nhim" đi vi AI. Ông nói vi MIT Technology Review rng cũng có "rt nhiu điu hay v Google" mà ông mun nói đến nhưng nhng nhn xét đó s "đáng tin cy hơn nhiu nếu tôi không còn Google na".

Google xác nhn rng ông Hinton đã ngh hưu sau 10 năm giám sát nhóm Nghiên cu ca Google Toronto.

Trng tâm các tranh cãi v AI là liu các mi nguy him là trong tương lai hay hin ti. Mt bên là các tình hung gi đnh v ri ro tn ti do máy tính thay thế trí thông minh ca con người gây ra. Mt khác là nhng lo ngi v công ngh t đng đã được các doanh nghip và chính ph trin khai rng rãi và có th gây ra nhng tác hi trong thế gii thc.

Bà Alondra Nelson, người đng đu Văn phòng Chính sách Khoa hc và Công ngh Tòa Bch c cho đến tháng 2, nói : "Dù tt hay không, nhng gì chatbot đã làm là biến AI tr thành đ tài bàn tán cp quc gia và quc tế không ch bao gm các chuyên gia và nhà phát trin AI".

"AI không còn tru tượng na, và tôi nghĩ chúng ta bt đu bàn v cách chúng ta mun thy mt tương lai dân ch và mt tương lai không bóc lt vi công ngh như thế nào", bà Nelson nói trong mt cuc phng vn vào tháng trước .

Mt s nhà nghiên cu AI t lâu đã bày t lo ngi v chng tc, gii tính và các hình thc thiên v khác trong các h thng AI, bao gm các mô hình ngôn ng da trên văn bn được đào to trên kho ch viết khng l ca con người và có th khuếch đi s phân bit đi x tn ti trong xã hi.

Bà Sarah Myers West, giám đc điu hành ca Vin AI Now phi li nhun, cho biết : "Chúng ta cn lùi li mt bước và thc s suy nghĩ xem nhu cu ca ai đang được đt lên hàng đu và là trung tâm trong cuc tho lun v ri ro". "Nhng tác hi do các h thng AI gây ra ngày nay thc s không được phân b đng đu. Nó đang làm trm trng thêm các mô hình bt bình đng hin có".

Ông Hinton là mt trong ba nhà tiên phong v AI đã giành được Gii thưởng Turing vào năm 2019, mt vinh d được biết đến như là phiên bn gii Nobel ca ngành công ngh. Hai người chiến thng khác, Yoshua Bengio và Yann LeCun, cũng bày t lo ngi v tương lai ca AI.

Ông Bengio, giáo sư ti Đi hc Montreal, đã ký mt bn kiến ngh vào cui tháng 3 kêu gi các công ty công ngh đng ý tm dng 6 tháng trong công cuc phát trin các h thng AI mnh m, trong khi ông LeCun, nhà khoa hc AI hàng đu ti công ty m ca Facebook, Meta, đã đưa ra mt cách tiếp cn lc quan hơn.

(AP)

Nguồn : VOA, 03/05/2023

******************************

‘Cha đỡ đầu’ của AI cảnh báo về mối đe doạ từ chatbot sau khi nghỉ việc ở Google

BBC, 02/05/2023

Geoffrey Hinton, nhà khoa học máy tính được mệnh danh là "cha đỡ đầu của trí tuệ nhân tạo" đã nghỉ việc, cảnh báo về những mối nguy hiểm ngày càng gia tăng từ những phát triển trong lĩnh vực này.

ai2

Trí tuệ nhân tạo - Ảnh minh họa

Tuyên bố từ chức ở Google trong một lá thư gửi cho tờ New York Times, ông Hinton, 75 tuổi cho biết giờ đây ông rất hối hận về công việc của mình.

Trao đổi với BBC, nhà khoa học cho biết một số nguy cơ của chatbot AI "khá đáng sợ".

"Ngay bây giờ, tôi có thể nói chúng không thông minh hơn chúng ta. Nhưng tôi nghĩ là sẽ sớm thôi".

Nghiên cứu tiên phong của Tiến sĩ Hinton về học sâu (deep learning) và mạng lưới nơ-ron đã mở đường cho các hệ thống AI hiện tại như ChatGPT.

Nhưng nhà tâm lý học nhận thức kiêm nhà khoa học máy tính người Canada gốc Anh nói với BBC rằng chatbot có thể sớm vượt qua mức độ thông tin mà bộ não con người nắm giữ.

"Ngay bây giờ, những gì chúng ta đang thấy là những thứ như GPT-4 vượt một người về lượng kiến ​​thc chung và ln át hn h v chng đường dài. V mt lý lun, nó không tt bng, nhưng nó đã thc hin được suy lun đơn gin.

"Và với tốc độ tiến bộ, chúng tôi dự trù mọi thứ sẽ cải thiện khá nhanh. Vì vậy, chúng ta cần phải lo lắng về điều đó".

Trong bài báo trên New York Times, Tiến sĩ Hinton đã đề cập đến "những kẻ xấu", những người sẽ cố gắng sử dụng AI cho "những điều xấu".

Khi được BBC yêu cầu phân giải thêm về điều này, ông đáp : "Đây chỉ là một tình huống xấu nhất, một tình huống ác mộng.

"Quý vị có thể tưởng tượng, ví dụ, một số kẻ xấu như [Tổng thống Nga Vladimir] Putin đã quyết định trao cho robot khả năng tạo ra các mục tiêu con của riêng chúng".

Nhà khoa học cảnh báo rằng điều này cuối cùng có thể "tạo ra các mục tiêu con như 'Tôi cần có thêm quyền lực'".

Ông nói thêm : "Tôi đã đi đến kết luận rằng loại trí thông minh mà chúng ta đang phát triển rất khác với loại trí thông minh mà chúng ta có.

"Chúng ta là những hệ thống sinh học còn đây là những hệ thống kỹ thuật số. Và sự khác biệt lớn là đối với các hệ thống kỹ thuật số, quý vị có nhiều bản sao của cùng một bộ trọng lượng, cùng một mô hình thế giới.

"Và tất cả những bản sao này có thể học mọi thứ một cách riêng biệt nhưng chia sẻ kiến ​​thc vi nhau tc thì. Vì vy, ging như bn có 10.000 người và bt cứ khi nào một người học được điều gì đó, mọi người sẽ tự động hiểu điều đó. Và đó là cách những chatbot này có thể hiểu biết vượt xa hơn bất kỳ con người nào".

Tiến sĩ Hinton cũng cho biết có một số lý do khác để nghỉ việc.

"Một là, tôi đã 75 tuổi. Vì vậy, đã đến lúc về hưu. Điều nữa là, tôi thực sự muốn nói một số điều tốt đẹp về Google. Và sẽ đáng tin hơn nếu tôi không còn làm việc cho Google".

Ông nhấn mạnh rằng ông không muốn chỉ trích Google và gã khổng lồ công nghệ đã "rất có trách nhiệm".

Trong một tuyên bố, nhà khoa học lãnh đạo của Google Jeff Dean cho biết : "Chúng tôi vẫn cam kết thực hiện một cách tiếp cận có trách nhiệm đối với AI. Chúng tôi không ngừng học hỏi để hiểu những rủi ro mới nổi cộm, đồng thời cũng mạnh dạn đổi mới".

Nguồn : BBC, 02/05/2023

*****************************

Bắc Kinh muốn nhồi chủ nghĩa xã hội vào trí tuệ nhân tạo

France24, Anh Vũ, RFI, 02/05/2023

Trung Quốc trở thành nước đầu tiên ban hành các quy định đưa vào khuôn khổ việc phát triển trí tuệ nhân tạo như dạng ChatGPT. Ưu tiên của nước này là làm sao để các tác nhân hội thoại tôn trọng các "giá trị cốt lõi của chủ nghĩa xã hội", một khái niệm vốn dĩ đã khó nắm bắt.

ai3

Ảnh minh họa : Tổng giám đốc nghiên cứu của tập đoàn Bách Độ, Trung Quốc, Robin Li thuyết trình về phát triển trí tuệ nhân tạo Bắc Kinh, ngày 04/07/2018. AP - Ng Han Guan

Trí tuệ nhân tạo (AI) theo kiểu ChatGPT liệu có hòa đồng được vào trong chủ nghĩa xã hội mang màu sắc Trung Quốc ? Câu hỏi này hàm chứa điều mà Bắc Kinh muốn. Hôm 26/04 vừa rồi, nhật báo Mỹ New York Times cho biết, chính quyền Trung Quốc vừa công bố các quy định mới để đưa vào khuôn khổ và tạo điều kiện phát triển công nghệ này với điều kiện phải tôn trọng chủ thuyết của chế độ Cộng sản.

Các biện pháp này, đã được trình lên các cấp cơ quan đảng Cộng Sản Trung Quốc hôm 11/04. Như vậy Trung Quốc là nước đầu tiên áp đặt các quy định cho lĩnh vực theo kiểu ChatGPT, công cụ hội thoại bằng trí tuệ thông minh do công ty OpenAI triển khai, đã gây tiếng vang lớn ngay khi xuất hiện.

Sợ trí tuệ nhân tạo chệch hướng

Bắc Kinh muốn có phản ứng nhanh nhất bởi "cũng giống như ở mọi nước, các lãnh đạo Trung Quốc đã hiểu rằng công nghệ này có thể tác động sâu rộng trong xã hội", Guangyu Qiao-Franco chuyên gia về công nghệ mới xuất hiện tại Trung Quốc thuộc Đại học Radboud (Hà Lan) nhận định.

Với một chế độ vốn rất muốn kiểm soát dân chúng như Bắc Kinh thì không thể có chuyện để các tác nhân thoại tự động được hoàn toàn tự do. Nhất là Bắc Kinh đã biết được phần mềm hội thoại tự động như vậy cho kết quả ra sao. Hồi tháng đầu năm năm 2022, ChatYua, công cụ của Trung Quốc tương tự như ChatGPT đã bị rút khẩn cấp ngay sau khi trả lời rằng nền kinh tế Trung Quốc đang "trong tình trạng tồi tệ" và rằng xung đột tại Ukraine là cuộc "chiến tranh xâm lược của Nga", trong khi mà Trung Quốc vẫn sử dụng lại cách gọi của Nga đó là "chiến dịch quân sự đặc biệt".

Những quy định mới nói trên là nhằm tránh trí tuệ nhân tạo đi chệch hướng. Cụ thể các công ty Trung Quốc triển khai các giải pháp thay thế cho ChatGPT phải bảo đảm là phần mềm của họ không tạo ra các nội dung kỳ thị, không xâm phạm quyền bảo vệ đời tư của người sử dụng internet, không truyền bá các thông tin giả, theo nhật báo South China Morning Post cho biết. Đó đều là những mối quan ngại của tất cả các chính phủ trên thế giới trước những thách thức mà trí tuệ nhân tạo đặt ra.

Nhưng điều 4 trong các quy định mới của Trung Quốc cũng hàm chứa nghĩa vụ phải thiết kế các công cụ trí tuệ nhân tạo biết «tôn trọng các giá trị cốt lõi của chủ nghĩa xã hội ( theo kiểu Trung Quốc)". Liệu đây có phải là một yêu cầu đưa trước tác của Mao Trạch Đông vào hộp thoại tự động (chatbot) ?

Thực ra, theo chuyên gia Guangyu Qiao-Franco, " có một danh sách các khái niệm thuộc các giá trị cốt lõi của chủ nghĩa xã hội". Người ta thấy ở đó các khái niệm như dân chủ, thịnh vượng, bình đẳng, công bằng, yêu nước, ý thức nghĩa vụ hay giá trị lao động. 

Chỉ là làm hài lòng Tập Cận Bình ? 

Thực sự đây là một mớ thập cẩm những những giá trị lớn có thể được phần lớn các nước phương Tây chia sẻ. Nhưng từ đó rất khó để suy ra các quy tắc cần tuân theo về mặt phát triển các phần mềm cho một công cụ trí tuệ nhân tạo tương thích với cái "chủ nghĩa xã hội" đó. "Đúng là những khái niệm khá mơ hồ", Guanyu Qiao-Franco nhận thấy.

Theo chuyên gia về chính sách kinh tế và công nghiệp Trung Quốc Xin Sun, thực tế, "cần phải tạo khái niệm cho những giá trị cốt lõi của chủ nghĩa xã hội, như một khái niệm bao trùm giúp chế độ có được sự linh hoạt nhất định về những điều được phép hay không".

Trước sự phát triển nhanh chóng của một công nghệ như hội thoại trí tuệ nhân tạo, Bắc Kinh không biết bắt đầu kiểm duyệt từ đâu. Các "giá trị cốt lõi của chủ nghĩa xã hội" quá lờ mờ để có thể thích ứng trong mọi tình huống.

Việc dùng đến tham chiếu này khá là ngạc nhiên. Quả thực chính quyền đã ban hành các quy tắc về "quản trị đúng AI" vào năm 2019 và là một phần của "quy tắc đạo đức AI" vào năm 2021. Không có dấu hiệu nào về "giá trị cốt lõi của chủ nghĩa xã hội" trong hai trường hợp này.

Năm 2023, cơ quan quản lý quyết định định đi xa hơn. "Có thể họ lấy cảm hứng từ ông Tập Cận Bình, người hay dẫn ra các giá trị đó. Có thể đó là cách để cho lãnh đạo của họ thấy là họ học theo tấm gương của của ông", bà Guangyu Qiao-Franco nhận định.

Trong giả thuyết đó, AI sẽ tham gia vào ngày càng nhiều mảng của nền kinh tế đang chịu sự trở lại chi phối của ý thức hệ. Đó cũng đã là một trong những ưu tiên của chủ tịch Trung Quốc. Đây cũng là yếu tố không thuận lợi cho các công ty Trung Quốc đang muốn cạnh tranh với ChatGPT. Làm thế nào để tạo ra một công cụ AI "tương thích-xã hội" ? Chuyên gia Xin Sun cho rằng "trước hết phải tạo ra một bộ lọc ở đầu vào và đầu ra của phần mềm».

Chậm chân so với Hoa Kỳ ? 

Sự kiểm duyệt kép này trước tiên sẽ biện minh cho việc sàng lọc thông tin từ cơ sở dữ liệu mà A.I sẽ rút ra để tìm câu trả lời. Sau đó, "có lẽ sẽ cần phải thiết lập một hệ thống xác minh các câu trả lời cuối cùng để đảm bảo rằng chúng không chứa bất kỳ điều gì trái với quy định", Xin Sun giải thích.

Vẫn còn bí ẩn lớn về những công cụ AI này. "Vấn đề là chúng ta hoàn toàn không biết tại sao những chiếc máy này lại chọn câu trả lời này thay vì một câu trả lời khác dựa trên dữ liệu mà chúng tôi cung cấp cho chúng", Joseph Sifakis, giám đốc nghiên cứu của Đại học Grenoble (Pháp) giải thích. Ông là người Pháp duy nhất được trao giải thưởng Turing ( một giải có thể gọi là Nobel về trí tuệ nhân tạo). Nói cách khác, không kỹ sư nào có thể đảm bảo 100% với đảng Cộng Sản Trung Quốc rằng chatbot của họ sẽ duy trì nghiêm ngặt trong khuôn khổ "giá trị cốt lõi của chủ nghĩa xã hội".

Các chủ công ty của Trung Quốc đề nghị phải được biết rõ ràng cái gì họ được làm cái gì không được làm. Khái niệm mập mờ xung quanh các "giá trị cốt lõi của chủ nghĩa xã hội" buộc các công ty phải tiến hành hết sức thận trọng. Điều này khiến cho họ có thể bị chậm chân trong cuộc cạnh tranh, đặc biệt là với các công ty Mỹ.

Như vậy chính quyền Trung Quốc tự đặt mình trước những mâu thuẫn của chính họ. Thực ra, trí tuệ nhân tạo nằm trong danh sách các lĩnh vực ưu tiên phát triển của Bắc Kinh trong cuộc tranh giành vị trí dẫn đầu thế giới. Thậm chí còn là nhiệm vụ trọng tâm bởi chính quyền "coi trí tuệ nhân tạo như là điện, tức là một ngành công nghệ giúp phát triển lĩnh vực ưu tiên khác chẳng hạn như tự động hóa hay công nghệ sinh học..." Chuyên gia Guangyu Qiao-Franco nhấn mạnh.

Vậy là với những quy định mới Bắc Kinh đã tự bắn vào chân mình. Nó có nguy cơ làm chậm cải tiến trong một lĩnh vực quan trọng. Nhưng đồng thời các nước khác cũng sẽ suy tính cách thức tốt nhất để thiết lập quy chế cho lĩnh vực này.

Chính quyền và các nhà chuyên môn của lĩnh vực này còn cần phải thống nhất với nhau thế nào là một tác nhân hội thoại tương thích với chủ nghĩa xã hội theo kiểu Trung Quốc. Đây sẽ là chủ đề của các cuộc tham khảo mà chính phủ dự định tiến hành với các tập đoàn Trung Quốc muốn lấn át ChatGPT. Ngoài Alibaba, Bách Độ (Baibu) hay Tencent, còn có rất đông những tập đoàn mạnh như thế.

(France24.com)

Anh Vũ biên dịch

Additional Info

  • Author VOA, BBC, RFI
Published in Quốc tế

Việt Nam sẽ tụt hậu nếu đi theo Trung Quốc kiểm duyệt AI trên mạng ?

Kian Vesteinsson, RFA, 17/03/2023

Trí tuệ nhân tạo (Artificial Intelligence, viết tắt là AI) đang nổi lên như một công nghệ mới có thể thay đổi đời sống con người ở nhiều lĩnh vực chủ chốt. Gần đây, Chat GPT, một sản phẩm AI trên mạng của công ty Open AI, thu hút được sự chú ý của người dùng internet toàn thế giới với những lợi ích mới mẻ mà nó mang lại. 

ai1

Hôm 16/3/2023, Công ty Baidu của Trung Quốc ra mắt Ernie Bot cạnh tranh với Chat GPT. Theo Financial Times, cổ phiếu Baidu giảm vì Ernie Bot gây thất vọng. Reuters

Các cơ quan chức năng ở Việt Nam hiện mới chỉ phản ứng với những trò đùa của người dân bằng cách hỏi Chat GPT những câu hỏi chính trị gây cười để cho ra những câu trả lời gây cười. Trên báo Điện tử Chính phủ, một chuyên gia của Việt Nam cho rằng cần khai thác "mặt tích cực" của AI và cũng đưa ra một giải pháp với hy vọng có thể điều khiển những nội dung do AI tạo ra để hạn chế "mặt trái". 

Trung Quốc từ lâu đã sử dụng công nghệ AI phục vụ cho hệ thống kiểm duyệt khổng lồ của mình. Và theo nhiều chuyên gia quốc tế theo dõi tình hình Trung Quốc, họ đã đi tới giai đoạn thao túng nội dung do AI có thể tạo ra, từ đó dẫn tới nguy cơ bóp méo môi trường internet toàn cầu. Một nước đang phát triển như Việt Nam không dễ có thể "copy" được hệ thống kiểm duyệt gắt gao của Trung Quốc, và nếu Việt Nam cố gắng làm như vậy, điều đó có thể dẫn Việt Nam tới nguy cơ tụt hậu, trở thành ốc đảo giữa một thế giới đang phát triển công nghệ mới AI. RFA trao đổi với ông Kian Vesteinsson, chuyên gia cao cấp tại Freedom House, một think tank ở Washington DC, về vấn đề này. Một trong những vấn đề Kian Vesteinsson chuyên nghiên cứu là mối quan hệ giữa dân chủ và các công nghệ mới.

RFA : Chúng ta đang bước vào thời đại mà Trí tuệ nhân tạo (Artificial Intelligence, viết tắt là AI) ngày càng đi sâu vào đời sống hàng ngày, kinh tế, an ninh, quân sự. Và chúng ta cũng chứng kiến hiện tượng kiểm duyệt bằng công nghệ AI. Người ta lo AI sẽ lấy mất công việc của nhiều nhóm nghề nghiệp. Và ở Trung Quốc có một điều bất ngờ là AI bắt đầu lấy mất nghề của cán bộ kiểm duyệt. Xin ông cung cấp một bức tranh tổng quan về hiện tượng này.

Kian Vesteinsson : Chúng ta biết rằng các công ty trên khắp thế giới sử dụng hệ thống học máy (machine learning) để quản lý nội dung trên nền tảng (platform) của họ. Và đó là một thực tế đơn giản về quy mô hoạt động của Internet ngày nay. Có một số lo ngại lớn về việc áp dụng các nội dung và hệ thống tự động, chẳng hạn như vào việc kiểm duyệt, vì vậy, điều quan trọng là các công ty không dựa vào các hệ thống tự động này để xóa nội dung mà không được con người xem xét trực tiếp một cách cẩn thận. 

Nhưng nói chung, những loại hệ thống tự động này là một phần của mọi nền tảng truyền thông xã hội nhưng những hệ thống này cũng có thể là cái định hướng, để hạn chế sự biểu đạt của người dân trên mạng. Ví dụ kinh điển ở đây là hoạt động kiểm duyệt do AI điều khiển đã trở thành trọng tâm trong quy trình kiểm soát nội dung trực tuyến của Đảng Cộng sản Trung Quốc (Đảng cộng sản Trung Quốc). Và chắc chắn, những hệ thống tự động này là một cách hiệu quả về chi phí để kiểm soát sự biểu đạt của người dân Trung Quốc trên quy mô lớn.

Bây giờ tôi muốn nói thực sự rõ ràng ở đây. Các công ty như Alibaba, Tencent và Baidu là những công ty hàng đầu trong ngành về công nghệ kiểm duyệt và họ đã thực sự đạt đến trình độ tinh chỉnh, tinh vi về cách sử dụng các hệ thống tự động để nhắm mục tiêu và hạn chế có chủ ý nội dung chính trị, nội dung xã hội và các hình thức biểu đạt quan trọng khác.

Và sau đó họ bán những hệ thống tương tự cho các công ty Trung Quốc khác và khách hàng nước ngoài trên khắp thế giới. Họ đang làm điều này một phần vì chính phủ yêu cầu các trang web được lưu trữ tại địa phương, các nền tảng truyền thông xã hội và các công ty công nghệ khác phải chủ động giám sát và xóa một lượng đáng kể nội dung và tài khoản bị hạn chế. Những công ty này có thể phải đối mặt với sự trừng phạt nghiêm khắc nếu họ không tuân thủ. Vì vậy đối với tôi, vấn đề ở đây là, kiểu kiểm duyệt tự động tinh vi này là một sự đáp ứng tuấn thủ chính sách của Đảng cộng sản Trung Quốc đối với việc kiểm soát ở mức độ tuyệt đối Internet Trung Quốc. Và kết quả là, quyền của những người Trung Quốc viết bài trên mạng đã bị khống chế.

RFA : Việt Nam có xu hướng học theo những gì Trung Quốc làm. Nhưng Việt Nam nhỏ và năng lực thấp hơn Trung Quốc ở mức độ đáng kể. Về mặt công nghệ, áp dụng AI vào kiểm duyệt nội dung chính trị trên mạng có phải là việc dễ làm đối với một nước đang phát triển như Việt Nam ?

Kian Vesteinsson : Có một điều tôi sẽ nói ở khía cạnh này, đó là ngay cả khi nói đến môi trường Internet truyền thống, chỉ có những cách kiểm duyệt truyền thống, thì bức tranh về quyền tự do ngôn luận ở Việt Nam đã ảm đạm rồi. 

Các bạn biết đấy, chúng tôi đã thấy trong năm qua, Chính phủ của các bạn đã xóa nội dung trực tuyến với tốc độ ngày càng tăng, kết án các nhà báo và người viết blog với án tù dài hạn. Từ thời điểm hiện tại này, đầu năm 2023, có vẻ như hoạt động kiểm duyệt này sẽ càng trở nên tệ hơn trong năm tới, với các quy định mới, để cụ thể hóa việc thực thi Luật An ninh mạng, có hiệu lực từ tháng 10 năm 2022. Và những quy định này sẽ mang lại cho chính phủ những con đường mới để ngăn chặn và xóa nội dung trực tuyến.

Sau đó, vào tháng 11 năm ngoái, Chính phủ các bạn đã thông báo rằng họ sẽ thắt chặt các yêu cầu đối với các công ty truyền thông xã hội trong việc xóa những bài đăng mà chính phủ cho là sai lệch. Và cũng trong khoảng thời gian đó, Đảng cộng sản Việt Nam đã đưa ra các quy định mới nhằm cấm quảng cáo trực tuyến trên một số trang web. Tôi nói tất cả những điều này bởi vì những diễn biến này cho thấy rằng người Việt Nam sẽ còn phải đối mặt nhiều hơn với sự kiểm duyệt trực tuyến nhằm hạn chế hoạt động báo chí độc lập và những tiếng nói bất đồng chính kiến trong năm tới. 

Điều đó có thể dẫn tới hậu quả là Việt Nam loại bỏ những tiềm năng chuyển đổi to lớn và tích cực mà những công cụ do AI có thể tạo ra.

Còn về năng lực công nghệ của Việt Nam, vâng, tôi nghĩ rằng sẽ rất khó để đánh giá trước mức độ mà Đảng cộng sản Việt Nam có thể sử dụng các công cụ này theo cách giống như Đảng cộng sản Trung Quốc đã làm, và một phần là do nó đòi hỏi năng lực kỹ thuật cần thiết ở mức độ cao.

Các bạn biết rằng sự kiểm soát mà Đảng cộng sản Trung Quốc trên Internet là bao trùm tất cả. Để làm được điều này, họ đã làm được một điều rất khó là tạo ra một mức độ ảnh hưởng khổng lồ, mở rộng tầm kiểm soát của mình tới mọi nơi, từ các công ty công nghệ cơ sở hạ tầng Internet cho đến tận cuộc sống của những người bình thường sử dụng Internet. Nói một cách đơn giản, điều này khó. Thực sự rất khó để tái tạo Vạn lý Tường lửa (the Great Firewall) của Trung Quốc, bởi vì điều này đòi hỏi phải làm việc ở nhiều cấp độ, cấp độ pháp lý, cấp độ chính sách, cấp độ kinh tế và kỹ thuật.

Chúng ta biết rằng Đảng cộng sản Trung Quốc thực sự đang gửi lực lượng đi thuyết phục các chính phủ khác trên thế giới theo đuổi mô hình chủ nghĩa độc tài kỹ thuật số của mình. Nhờ đó, các công ty Trung Quốc đang bán những công cụ giám sát và kiểm duyệt tinh vi cho các khách hàng trên toàn thế giới. Và điều đó có thể cho phép các chính phủ khác tái tạo một số phần trong hệ thống kiểm soát của chính phủ Trung Quốc đối với Internet, thông qua việc mua các công cụ này từ các công ty đó.

RFA : Vậy nếu Việt Nam sử dụng các công cụ kiểm duyệt bằng AI của Trung Quốc thay vì sử dụng công nghệ AI theo tiêu chí Phương Tây, rủi ro cho an ninh quốc gia của nước này là gì ? 

Kian Vesteinsson : Tôi xin để vấn đề đó cho các nhà phân tích về an ninh quốc gia, đó không phải là lĩnh vực chuyên môn của tôi. Vì vậy, tôi nghĩ tốt hơn là tôi không nói về điều đó. Nó thực sự phức tạp. 

RFA : Trung Quốc là một quốc gia có dân số lớn nhất và có lượng người dùng Internet lớn nhất thế giới. Việc Đảng cộng sản Trung Quốc kiểm soát mạng lưới Internet có lượng người dùng lớn nhất thế giới có ảnh hưởng tới nội dung do những công cụ AI, ví dụ như Chat GPT, tạo ra hay không ? Ý tôi muốn nói là phạm vi ảnh hưởng có vượt ra khỏi lãnh thổ Trung Quốc mà lan ra cấp độ toàn cầu hay không.

Kian Vesteinsson : Vâng, đó thực sự là một câu hỏi sâu sắc. Tôi muốn tiếp cận vấn đề như thế này. Những công cụ Học máy này phản ánh dữ liệu mà chúng được đào tạo. Và vì vậy, nếu một công cụ Học máy chủ yếu lấy thông tin từ Internet tiếng Trung Quốc hoặc tiếng Việt, thì kết quả đầu ra của nó sẽ phản ánh những gì mà Đảng cộng sản Trung Quốc và Đảng cộng sản Việt Nam phát tán bao gồm cả những thành kiến của họ, những thông tin họ tuyên truyền. Nó sẽ truyền tải cái bầu không khí tinh thần mà chúng ta thấy trên mạng Internet của Trung Quốc và Việt Nam.

Điều đáng chú ý ở đây là các hệ thống AI này cũng có thể phản ánh sự kiểm duyệt, do sự can thiệp của con người đối với nội dung do máy tạo ra này. Một ví dụ ở đây là các phiên bản đầu tiên của chương trình chuyển đổi văn bản thành hình ảnh ERNIE-ViLG của Baidu đã giới hạn các tham chiếu đến hình ảnh Quảng trường Thiên An Môn, các nhà lãnh đạo Trung Quốc, hạn chế các thuật ngữ như "cách mạng" hoặc "vượt tường lửa". Vì vậy, tôi nghĩ điều này rất có khả năng là cái trạng thái thực tại của mạng Internet này sẽ khuôn định các công cụ sáng tạo bởi AI, vốn là cái dựa trên nền tảng Internet ấy.

Một điểm khác, tôi sẽ trình bày ở đây về chủ đề này, đó là tôi nghĩ có một câu hỏi quan trọng là : điều gì có thể xảy ra với người dùng ? Ai sử dụng các công cụ Học máy này để tạo nội dung mà các nhà lãnh đạo chính trị muốn nắm bắt ? Vì vậy giả sử ai đó ở Việt Nam sử dụng một bài viết được Chatbot tạo ra có nội dung chỉ trích Đảng cộng sản Việt Nam và sau đó đăng ảnh chụp màn hình của sản phẩm đó lên mạng xã hội, người đó có thể phải đối mặt với những hình phạt nào từ các cơ quan có thẩm quyền của Việt Nam ? Và điều gì xảy ra với công ty cung cấp những nền tảng đó ? Vì vậy, đây là một câu hỏi thực sự lớn mà tôi nghĩ rằng chúng ta sẽ chỉ thấy câu trả lời mở ra khi những công cụ này trở nên khả dụng hơn đối với người dân nói chung.

RFA : Đứng trước năng lực của Trung Quốc trong việc bóp méo nội dung do AI tạo ra như vậy, với tư cách là đảng cầm quyền ở Việt Nam, Đảng cộng sản Việt Nam phải đối diện với những vấn đề lớn hơn thế về mặt lợi ích quốc gia mà họ có trách nhiệm phải gánh vác. Tôi lấy ví dụ, Trung Quốc tranh chấp với một số nước ASEAN về chủ quyền lãnh thổ quốc gia ở Biển Đông. Trước khi có AI, họ đã huy động một số lượng lớn các học giả sản xuất tràn ngập các bài báo phát tán quan điểm sai trái của Trung Quốc một cách tinh vi. Họ áp đảo các học giả chân chính về mặt số lượng. Nay họ còn có thêm công cụ AI. Liệu AI sẽ tác động thế nào đến địa chính trị trong vùng ?

Kian Vesteinsson : Vâng đó là một câu hỏi thực sự hay, và thực tế là chúng ta sẽ không biết câu trả lời, do vấn đề còn phụ thuộc vào cách mà các công cụ AI này được thiết kế. Ví dụ, bạn biết rằng Baidu đang phát hành Chatbot Ernie của họ. Tôi nghĩ nó sẽ ra mắt trong tuần này. Các sản phẩm của Baidu và nhiều sản phẩm khác tương đương với nó trong bối cảnh quốc tế không minh bạch, người dùng hệ thống không rõ các mô hình học ngôn ngữ lớn này được đào tạo bằng những dữ liệu nào, và không rõ mức độ can thiệp của con người đối với quá trình đó. 

Vì vậy, trong ví dụ mà bạn đã chia sẻ này, sẽ rất khó để người dùng công cụ của Baidu, sẽ ra mắt vào tuần này, có thể đánh giá mức độ mà sản phẩm đầu ra của nó bị thao túng để phục vụ lợi ích của chính quyền. 

Đó là lý do tại sao điều thực sự quan trọng là các công ty phát triển những công cụ này phải tích hợp các nguyên tắc nhân quyền mạnh mẽ, các tiêu chuẩn cao về tính minh bạch và trách nhiệm giải trình công khai, khi họ phát hành chúng. Điều đó thực sự đã bắt đầu với các công ty lớn ở bên ngoài Trung Quốc để thiết lập tiêu chuẩn cho các công ty khác, không thuộc Trung Quốc. 

RFA : Trung Quốc không chỉ sử dụng AI để kiểm duyệt, bây giờ thì họ có thể kiểm duyệt luôn cả AI, tức là bóp méo những gì mà AI có thể tạo ra theo ý muốn của họ. Ở trình độ này, họ có thể làm biến dạng mạng lưới thông tin toàn cầu hay không ? Điều đó liệu có thể chia thế giới này làm đôi, tức là chia các nhà hoạch định chính sách, các công ty công nghệ và người sử dụng Internet làm hai nhánh, đi theo hai hướng, trên phạm vi toàn cầu hay không ?

Kian Vesteinsson : Vâng, điều này hoàn toàn đúng. Hệ thống kiểm duyệt của Đảng cộng sản Trung Quốc đối với Internet Trung Quốc đã làm biến dạng hoàn toàn mạng internet toàn cầu. Tôi chỉ xin nêu một vài ví dụ về một số chủ đề lớn bị kiểm duyệt nghiêm ngặt mà chúng tôi đã thấy trong năm qua, ý tôi là chỉ vài tháng trước, cuối năm 2022, khi người dân khắp Trung Quốc đã vận động một phong trào biểu tình phản đối không chỉ các chính sách Zero COVID mà còn nhiều chính sách kiểm soát chính trị hà khắc của chính quyền. Điều này đã phát triển mạnh mẽ trên Internet trong một số ngày trước khi hệ thống kiểm duyệt hoạt động, xóa và hạn chế những nội dung đó. Nó diễn ra cùng một cách mà chúng ta thấy trong đại dịch COVID-19 khi chính phủ Trung Quốc kiểm duyệt thực sự gay gắt. 

Lúc đó người dân chỉ trích việc phong tỏa hà khắc hoặc chia sẻ thông tin liên quan đến COVID. Loại biện pháp kiểm duyệt này thực sự đã trở thành một phần xu hướng mà chúng ta thấy trên khắp thế giới : xu hướng các chính phủ đang chia mạng Internet toàn cầu mở thành từng khu vực đàn áp chắp vá.

Nói chung, họ đang làm như vậy để cách ly về mặt kỹ thuật số cộng đồng của chính họ nhằm kiểm duyệt và giám sát người dùng theo những cách sâu hơn. 

Và như vậy, chính phủ Trung Quốc đã thực sự đi "tiên phong." Cách tiếp cận này là xây dựng các đường biên giới kỹ thuật số, bên cạnh các đường biên giới lãnh thổ quốc gia. Điều đó thực sự tồi tệ đối với người dùng Internet và nhân quyền của họ.

Các công cụ học máy phản ánh dữ liệu mà chúng được đào tạo. Do đó, chúng có xu hướng phản ánh những thành kiến được nhúng trong những dữ liệu đó. Các mô hình ngôn ngữ lớn được đào tạo trên internet Trung Quốc, nơi bị Đảng cộng sản Trung Quốc kiểm duyệt gắt gao, có nguy cơ sao chép phiên bản internet bị thao túng đó trong kết quả đầu ra của họ. Điều này có thể ảnh hưởng đến các mô hình được xây dựng bởi các công ty có trụ sở bên ngoài Trung Quốc, không phải tuân theo các chỉ thị kiểm duyệt của Đảng cộng sản Trung Quốc. Điều quan trọng là các công ty xây dựng các mô hình này phải đặt ra tiêu chuẩn cao về tính minh bạch và trách nhiệm giải trình trước công chúng để những người sử dụng chúng biết được những giả định nào có thể được đưa vào quá trình xử lý của hệ thống học máy.

RFA : AI là một công nghệ có thể tạo ra những chuyển đổi to lớn mà những nước đang phát triển như Việt Nam không nên bỏ lỡ. Nhưng hệ thống kiểm duyệt của nước này tác động thế nào đến các công ty công nghệ mới trong lĩnh vực này khi họ muốn xem xét đầu tư vào một môi trường như Việt Nam ? Ở trên ông nói hoạt động kiểm duyệt gắt gao trên diện rộng có thể dẫn tới hậu quả là Việt Nam loại bỏ những tiềm năng chuyển đổi to lớn và tích cực mà những công cụ do AI trên mạng có thể tạo ra. Xin ông giải thích.

Kian Vesteinsson : Vâng, tôi xin đặt vấn đề như thế này. Những công cụ học máy AI này thực sự có khả năng biến đổi mọi lĩnh vực đời sống. Tôi nghĩ chúng sẽ thay đổi cách thức hoạt động của Internet. Và như với tất cả các công nghệ có khả năng tạo ra sự chuyển đổi tương tự, điều đó có khả năng mang lại nhiều lợi ích kinh tế, nhiều tăng trưởng và đổi mới cho những người đang xây dựng các công cụ này, xây dựng các hệ thống mới này và những người biết cách sử dụng chúng.

Tuy nhiên, khi một chính phủ nào đó áp đặt các hệ thống kiểm duyệt ở quy mô lớn thì chính phủ ấy cũng đang cắt giảm thông tin phục vụ cho quá trình sáng tạo đổi mới đó, cắt giảm những lợi ích kinh tế mà ngành công nghiệp mới này có thể tạo ra. 

Khi các công ty công nghệ mới này tìm hiểu nơi họ nên đầu tư, nơi họ nên khai thác thị trường mới và tổ chức những hoạt động mới, một trong những việc họ sẽ phải làm là phân tích hai mặt lợi ích và chi phí. Trong đó, đối với họ, việc tuân thủ các yêu cầu kiểm duyệt và giám sát thực sự là việc khó khăn. Và vì vậy, để trả lời câu hỏi bạn đặt ra, tôi có thể nói rằng việc kiểm duyệt gắt gao trên diện rộng của chính phủ sẽ tạo ra những chi phí rất thực tế cho các công ty đang xem xét đầu tư vào một môi trường nhất định.

RFA : Như vậy nếu một nước đang phát triển như Việt Nam thực hiện một hệ thống kiểm duyệt chặt chẽ đối với sản phẩm do AI tạo ra trên Internet, điều này rốt cục sẽ khiến nước này có thể sẽ không nhận được đầy đủ lợi ích từ công nghệ mới này do không thu hút được đầu tư của các công ty ? Đó có thể là một khả năng không ?

Kian Vesteinsson : Vâng, đó chắc chắn là một khả năng.

RFA : Ở trên ông đã nói về tính minh bạch như là một điều kiện cần thiết để công nghệ AI có thể tạo ra sự chuyển đổi tích cực cho kinh tế xã hội. Xin ông giải thích chi tiết hơn tại sao tính minh bạch lại quan trọng đối với công nghệ mới này và với các quốc gia muốn tham gia vào làn sóng mới này ?

Kian Vesteinsson : Vâng. Khi đề cập đến tính minh bạch, tôi nói về tính minh bạch ở một mức độ rất rộng. Tôi muốn nói về tính minh bạch khi đề cập đến hệ thống kỹ thuật, cách thức vận hành, chính sách, cũng như tính minh bạch trong toàn bộ cách thức hoạt động của các công ty. 

Điều này thực sự quan trọng vì một số lý do khác nhau. Tôi muốn nói rằng nó quan trọng không chỉ đối với các công ty như Open AI đang triển khai các công cụ học máy này, mà còn cả các công ty như Meta và Google trên các nền tảng nền tảng này. Tính minh bạch trao quyền cho người sử dụng hiểu điều gì đang xảy ra trên những nền tảng mà họ đang dành cả cuộc sống cho nó, phải không ? Những công cụ này, bao gồm cả Chat GPT, đang đóng một vai trò phi thường trong cuộc sống của mọi người. Do đó điều thực sự quan trọng là những người đang giao tiếp với hệ thống biết rằng họ có cơ hội, có điều kiện để hiểu được điều gì đang thực sự xảy ra ở mặt sau.

Một lý do khác khiến tính minh bạch thực sự quan trọng là điều này giúp xây dựng những quy định, những chế tài một cách thông minh và có chủ đích. Chúng ta đang ở thời điểm mà các chính phủ trên khắp thế giới đang tìm cách điều chỉnh lĩnh vực công nghệ. Và trong nhiều trường hợp, các chính phủ đang làm điều này với những hiểu biết và thông tin còn hạn hẹp. Và vì vậy, ở những tầng bậc mà chúng ta đã nói đến, tính minh bạch thực sự là chìa khóa để thúc đẩy quá trình hoạch định chính sách một cách thông minh. Như một điểm khởi đầu, các cơ quan quản lý trên khắp thế giới nên tìm kiếm cơ hội để thực thi các yêu cầu minh bạch đối với những công ty này, để từ đó chuẩn bị xa hơn nữa cho những chính sách hẹp và có chủ đích mà chúng ta muốn đạt tới trong tương lai

RFA : Xin cảm ơn nhà nghiên cứu Kian Vesteinsson và Freedom House đã dành cho độc giả của chúng tôi cuộc phỏng vấn này.

RFA, 17/03/2023

*****************************

"ChatGPT" của Trung Quốc không thuyết phục được giới đầu tư

Phan Minh, RFI, 17/03/2023

Tập đoàn Bách Độ (Baidu) của Trung Quốc hôm 16/03/2023 đã "trình làng" robot biết giao tiếp "Ernie Bot", được cho là đối thủ cạnh tranh với ChatGPT. Tuy nhiên, các nhà đầu tư không mấy ấn tượng với khả năng toán học và ngôn ngữ của Ernie Bot, và cổ phiếu của Bách Độ giảm 10% trên thị trường chứng khoán Hồng Kông. 

ai2

Bảng hiệu Bách Độ (Baidu) tại trụ sở chính của tập đoàn tại Bắc Kinh, Trung Quốc, ngày 16/03/2023. Reuters – Tingshu Wang

Từ Bắc Kinh, thông tín viên Stéphane Lagarde cho biết cụ thể :  

Đây không phải là lần đầu tiên Bách Độ ra một sản phẩm về lĩnh vực trí tuệ nhân tạo. Sau robot taxi không người lái, sau những chiếc loa thông minh nhỏ "Tiểu Độ - Xiaodu" có khả năng dự báo thời tiết và trả lời câu hỏi của các hộ gia đình ở những thành phố lớn Trung Quốc, giờ đây là "Ernie Bot", robot biết giao tiếp được cho là sẽ cạnh tranh với ChatGPT. 

Tuy nhiên, Lý Ngạn Hoành (Robin Li), ông chủ của Bách Độ, không thích nói đến ý tưởng về một cuộc chạy đua với Hoa Kỳ. Theo ông Lý, bộ não nhân tạo là ý tưởng của các kỹ sư Bách Độ trong một thời gian dài : "Đây không phải là công cụ phục vụ cuộc đối đầu về công nghệ cao giữa Trung Quốc và Hoa Kỳ, mà là thành quả trong công việc của nhiều thế hệ kỹ sư Bách Độ, những người theo đuổi ước mơ thay đổi thế giới thông qua công nghệ."

Không chạy đua công nghệ, nhưng lần này, Bách Độ dường như đã ra mắt sản phẩm robot của mình quá sớm. 

Hiện tại, chỉ có một phiên bản tiếng Quan Thoại của "Ernie Bot" được trình làng mà không thể hiện được khả năng của mình, điều mà Lý Ngạn Hoành thừa nhận là kém hơn so với robot của Mỹ, và điều này đủ để khiến cổ phiếu của Bách Độ tụt dốc trên sàn giao dịch chứng khoán Hồng Kông. 

Phan Minh

Nguồn : RFI, 17/03/2023

Additional Info

  • Author Kian Vesteinsson, Phan Minh
Published in Diễn đàn
Trang 1 đến 2