‘Bố già AI’ rời Google, cảnh báo về các hiểm họa công nghệ
AP, VOA, 03/05/2023
Nhà nghiên cứu tiên phong và được mệnh danh là "Bố già của AI", Geoffrey Hinton, nghỉ việc tại Google để có thể tự do lên tiếng về mối nguy hiểm của công nghệ mà ông đã giúp tạo ra.
Geoffrey Hinton, "Bố già của AI", chụp ảnh trước trụ sở của Google ở Mountain View, California, ngày 25/3/2015.
Trong sự nghiệp nhiều chục năm của mình, công trình tiên phong của ông Hinton về học sâu và mạng thần kinh đã giúp đặt nền móng cho phần lớn công nghệ AI mà chúng ta thấy ngày nay.
Đã có một loạt các giới thiệu về AI trong những tháng gần đây. Công ty khởi nghiệp OpenAI có trụ sở tại San Francisco, công ty phát triển ChatGPT được Microsoft hậu thuẫn, đã tung ra mô hình trí tuệ nhân tạo mới nhất của mình, GPT-4, vào tháng Ba. Những công ty công nghệ khổng lồ khác đã đầu tư vào các công cụ cạnh tranh — bao gồm cả "Bard" của Google.
Ông Hinton nói với BBC rằng một số mối nguy hiểm của chatbot AI là "khá đáng sợ". "Bây giờ nó chưa thông minh hơn chúng ta nhưng sẽ chẳng bao lâu nữa đâu".
Trong một cuộc phỏng vấn với tờ MIT Technology Review, ông Hinton cũng chỉ ra "những kẻ xấu" có thể sử dụng AI theo những cách có thể gây tác động bất lợi cho xã hội — chẳng hạn như thao túng bầu cử hoặc xúi giục bạo lực.
Ông Hinton, 75 tuổi, cho biết ông đã nghỉ việc tại Google để có thể phát biểu cởi mở về những rủi ro tiềm ẩn khi không còn làm việc cho công ty công nghệ khổng lồ.
"Tôi muốn nói về các vấn đề an toàn của AI mà không phải lo lắng về sự ảnh hưởng tới hoạt động kinh doanh của Google", ông nói với MIT Technology Review. "Chừng nào tôi còn được Google trả tiền, thì tôi không thể làm điều đó".
Kể từ khi thông báo về sự ra đi của mình, ông Hinton đã khẳng định rằng Google đã "hành động rất có trách nhiệm" đối với AI. Ông nói với MIT Technology Review rằng cũng có "rất nhiều điều hay về Google" mà ông muốn nói đến — nhưng những nhận xét đó sẽ "đáng tin cậy hơn nhiều nếu tôi không còn ở Google nữa".
Google xác nhận rằng ông Hinton đã nghỉ hưu sau 10 năm giám sát nhóm Nghiên cứu của Google ở Toronto.
Trọng tâm các tranh cãi về AI là liệu các mối nguy hiểm là trong tương lai hay hiện tại. Một bên là các tình huống giả định về rủi ro tồn tại do máy tính thay thế trí thông minh của con người gây ra. Mặt khác là những lo ngại về công nghệ tự động đã được các doanh nghiệp và chính phủ triển khai rộng rãi và có thể gây ra những tác hại trong thế giới thực.
Bà Alondra Nelson, người đứng đầu Văn phòng Chính sách Khoa học và Công nghệ Tòa Bạch Ốc cho đến tháng 2, nói : "Dù tốt hay không, những gì chatbot đã làm là biến AI trở thành đề tài bàn tán cấp quốc gia và quốc tế không chỉ bao gồm các chuyên gia và nhà phát triển AI".
"AI không còn trừu tượng nữa, và tôi nghĩ chúng ta bắt đầu bàn về cách chúng ta muốn thấy một tương lai dân chủ và một tương lai không bóc lột với công nghệ như thế nào", bà Nelson nói trong một cuộc phỏng vấn vào tháng trước .
Một số nhà nghiên cứu AI từ lâu đã bày tỏ lo ngại về chủng tộc, giới tính và các hình thức thiên vị khác trong các hệ thống AI, bao gồm các mô hình ngôn ngữ dựa trên văn bản được đào tạo trên kho chữ viết khổng lồ của con người và có thể khuếch đại sự phân biệt đối xử tồn tại trong xã hội.
Bà Sarah Myers West, giám đốc điều hành của Viện AI Now phi lợi nhuận, cho biết : "Chúng ta cần lùi lại một bước và thực sự suy nghĩ xem nhu cầu của ai đang được đặt lên hàng đầu và là trung tâm trong cuộc thảo luận về rủi ro". "Những tác hại do các hệ thống AI gây ra ngày nay thực sự không được phân bổ đồng đều. Nó đang làm trầm trọng thêm các mô hình bất bình đẳng hiện có".
Ông Hinton là một trong ba nhà tiên phong về AI đã giành được Giải thưởng Turing vào năm 2019, một vinh dự được biết đến như là phiên bản giải Nobel của ngành công nghệ. Hai người chiến thắng khác, Yoshua Bengio và Yann LeCun, cũng bày tỏ lo ngại về tương lai của AI.
Ông Bengio, giáo sư tại Đại học Montreal, đã ký một bản kiến nghị vào cuối tháng 3 kêu gọi các công ty công nghệ đồng ý tạm dừng 6 tháng trong công cuộc phát triển các hệ thống AI mạnh mẽ, trong khi ông LeCun, nhà khoa học AI hàng đầu tại công ty mẹ của Facebook, Meta, đã đưa ra một cách tiếp cận lạc quan hơn.
(AP)
Nguồn : VOA, 03/05/2023
******************************
‘Cha đỡ đầu’ của AI cảnh báo về mối đe doạ từ chatbot sau khi nghỉ việc ở Google
BBC, 02/05/2023
Geoffrey Hinton, nhà khoa học máy tính được mệnh danh là "cha đỡ đầu của trí tuệ nhân tạo" đã nghỉ việc, cảnh báo về những mối nguy hiểm ngày càng gia tăng từ những phát triển trong lĩnh vực này.
Trí tuệ nhân tạo - Ảnh minh họa
Tuyên bố từ chức ở Google trong một lá thư gửi cho tờ New York Times, ông Hinton, 75 tuổi cho biết giờ đây ông rất hối hận về công việc của mình.
Trao đổi với BBC, nhà khoa học cho biết một số nguy cơ của chatbot AI "khá đáng sợ".
"Ngay bây giờ, tôi có thể nói chúng không thông minh hơn chúng ta. Nhưng tôi nghĩ là sẽ sớm thôi".
Nghiên cứu tiên phong của Tiến sĩ Hinton về học sâu (deep learning) và mạng lưới nơ-ron đã mở đường cho các hệ thống AI hiện tại như ChatGPT.
Nhưng nhà tâm lý học nhận thức kiêm nhà khoa học máy tính người Canada gốc Anh nói với BBC rằng chatbot có thể sớm vượt qua mức độ thông tin mà bộ não con người nắm giữ.
"Ngay bây giờ, những gì chúng ta đang thấy là những thứ như GPT-4 vượt một người về lượng kiến thức chung và lấn át hẳn họ về chặng đường dài. Về mặt lý luận, nó không tốt bằng, nhưng nó đã thực hiện được suy luận đơn giản.
"Và với tốc độ tiến bộ, chúng tôi dự trù mọi thứ sẽ cải thiện khá nhanh. Vì vậy, chúng ta cần phải lo lắng về điều đó".
Trong bài báo trên New York Times, Tiến sĩ Hinton đã đề cập đến "những kẻ xấu", những người sẽ cố gắng sử dụng AI cho "những điều xấu".
Khi được BBC yêu cầu phân giải thêm về điều này, ông đáp : "Đây chỉ là một tình huống xấu nhất, một tình huống ác mộng.
"Quý vị có thể tưởng tượng, ví dụ, một số kẻ xấu như [Tổng thống Nga Vladimir] Putin đã quyết định trao cho robot khả năng tạo ra các mục tiêu con của riêng chúng".
Nhà khoa học cảnh báo rằng điều này cuối cùng có thể "tạo ra các mục tiêu con như 'Tôi cần có thêm quyền lực'".
Ông nói thêm : "Tôi đã đi đến kết luận rằng loại trí thông minh mà chúng ta đang phát triển rất khác với loại trí thông minh mà chúng ta có.
"Chúng ta là những hệ thống sinh học còn đây là những hệ thống kỹ thuật số. Và sự khác biệt lớn là đối với các hệ thống kỹ thuật số, quý vị có nhiều bản sao của cùng một bộ trọng lượng, cùng một mô hình thế giới.
"Và tất cả những bản sao này có thể học mọi thứ một cách riêng biệt nhưng chia sẻ kiến thức với nhau tức thì. Vì vậy, giống như bạn có 10.000 người và bất cứ khi nào một người học được điều gì đó, mọi người sẽ tự động hiểu điều đó. Và đó là cách những chatbot này có thể hiểu biết vượt xa hơn bất kỳ con người nào".
Tiến sĩ Hinton cũng cho biết có một số lý do khác để nghỉ việc.
"Một là, tôi đã 75 tuổi. Vì vậy, đã đến lúc về hưu. Điều nữa là, tôi thực sự muốn nói một số điều tốt đẹp về Google. Và sẽ đáng tin hơn nếu tôi không còn làm việc cho Google".
Ông nhấn mạnh rằng ông không muốn chỉ trích Google và gã khổng lồ công nghệ đã "rất có trách nhiệm".
Trong một tuyên bố, nhà khoa học lãnh đạo của Google Jeff Dean cho biết : "Chúng tôi vẫn cam kết thực hiện một cách tiếp cận có trách nhiệm đối với AI. Chúng tôi không ngừng học hỏi để hiểu những rủi ro mới nổi cộm, đồng thời cũng mạnh dạn đổi mới".
Nguồn : BBC, 02/05/2023
*****************************
Bắc Kinh muốn nhồi chủ nghĩa xã hội vào trí tuệ nhân tạo
France24, Anh Vũ, RFI, 02/05/2023
Trung Quốc trở thành nước đầu tiên ban hành các quy định đưa vào khuôn khổ việc phát triển trí tuệ nhân tạo như dạng ChatGPT. Ưu tiên của nước này là làm sao để các tác nhân hội thoại tôn trọng các "giá trị cốt lõi của chủ nghĩa xã hội", một khái niệm vốn dĩ đã khó nắm bắt.
Ảnh minh họa : Tổng giám đốc nghiên cứu của tập đoàn Bách Độ, Trung Quốc, Robin Li thuyết trình về phát triển trí tuệ nhân tạo Bắc Kinh, ngày 04/07/2018. AP - Ng Han Guan
Trí tuệ nhân tạo (AI) theo kiểu ChatGPT liệu có hòa đồng được vào trong chủ nghĩa xã hội mang màu sắc Trung Quốc ? Câu hỏi này hàm chứa điều mà Bắc Kinh muốn. Hôm 26/04 vừa rồi, nhật báo Mỹ New York Times cho biết, chính quyền Trung Quốc vừa công bố các quy định mới để đưa vào khuôn khổ và tạo điều kiện phát triển công nghệ này với điều kiện phải tôn trọng chủ thuyết của chế độ Cộng sản.
Các biện pháp này, đã được trình lên các cấp cơ quan đảng Cộng Sản Trung Quốc hôm 11/04. Như vậy Trung Quốc là nước đầu tiên áp đặt các quy định cho lĩnh vực theo kiểu ChatGPT, công cụ hội thoại bằng trí tuệ thông minh do công ty OpenAI triển khai, đã gây tiếng vang lớn ngay khi xuất hiện.
Sợ trí tuệ nhân tạo chệch hướng
Bắc Kinh muốn có phản ứng nhanh nhất bởi "cũng giống như ở mọi nước, các lãnh đạo Trung Quốc đã hiểu rằng công nghệ này có thể tác động sâu rộng trong xã hội", Guangyu Qiao-Franco chuyên gia về công nghệ mới xuất hiện tại Trung Quốc thuộc Đại học Radboud (Hà Lan) nhận định.
Với một chế độ vốn rất muốn kiểm soát dân chúng như Bắc Kinh thì không thể có chuyện để các tác nhân thoại tự động được hoàn toàn tự do. Nhất là Bắc Kinh đã biết được phần mềm hội thoại tự động như vậy cho kết quả ra sao. Hồi tháng đầu năm năm 2022, ChatYua, công cụ của Trung Quốc tương tự như ChatGPT đã bị rút khẩn cấp ngay sau khi trả lời rằng nền kinh tế Trung Quốc đang "trong tình trạng tồi tệ" và rằng xung đột tại Ukraine là cuộc "chiến tranh xâm lược của Nga", trong khi mà Trung Quốc vẫn sử dụng lại cách gọi của Nga đó là "chiến dịch quân sự đặc biệt".
Những quy định mới nói trên là nhằm tránh trí tuệ nhân tạo đi chệch hướng. Cụ thể các công ty Trung Quốc triển khai các giải pháp thay thế cho ChatGPT phải bảo đảm là phần mềm của họ không tạo ra các nội dung kỳ thị, không xâm phạm quyền bảo vệ đời tư của người sử dụng internet, không truyền bá các thông tin giả, theo nhật báo South China Morning Post cho biết. Đó đều là những mối quan ngại của tất cả các chính phủ trên thế giới trước những thách thức mà trí tuệ nhân tạo đặt ra.
Nhưng điều 4 trong các quy định mới của Trung Quốc cũng hàm chứa nghĩa vụ phải thiết kế các công cụ trí tuệ nhân tạo biết «tôn trọng các giá trị cốt lõi của chủ nghĩa xã hội ( theo kiểu Trung Quốc)". Liệu đây có phải là một yêu cầu đưa trước tác của Mao Trạch Đông vào hộp thoại tự động (chatbot) ?
Thực ra, theo chuyên gia Guangyu Qiao-Franco, " có một danh sách các khái niệm thuộc các giá trị cốt lõi của chủ nghĩa xã hội". Người ta thấy ở đó các khái niệm như dân chủ, thịnh vượng, bình đẳng, công bằng, yêu nước, ý thức nghĩa vụ hay giá trị lao động.
Chỉ là làm hài lòng Tập Cận Bình ?
Thực sự đây là một mớ thập cẩm những những giá trị lớn có thể được phần lớn các nước phương Tây chia sẻ. Nhưng từ đó rất khó để suy ra các quy tắc cần tuân theo về mặt phát triển các phần mềm cho một công cụ trí tuệ nhân tạo tương thích với cái "chủ nghĩa xã hội" đó. "Đúng là những khái niệm khá mơ hồ", Guanyu Qiao-Franco nhận thấy.
Theo chuyên gia về chính sách kinh tế và công nghiệp Trung Quốc Xin Sun, thực tế, "cần phải tạo khái niệm cho những giá trị cốt lõi của chủ nghĩa xã hội, như một khái niệm bao trùm giúp chế độ có được sự linh hoạt nhất định về những điều được phép hay không".
Trước sự phát triển nhanh chóng của một công nghệ như hội thoại trí tuệ nhân tạo, Bắc Kinh không biết bắt đầu kiểm duyệt từ đâu. Các "giá trị cốt lõi của chủ nghĩa xã hội" quá lờ mờ để có thể thích ứng trong mọi tình huống.
Việc dùng đến tham chiếu này khá là ngạc nhiên. Quả thực chính quyền đã ban hành các quy tắc về "quản trị đúng AI" vào năm 2019 và là một phần của "quy tắc đạo đức AI" vào năm 2021. Không có dấu hiệu nào về "giá trị cốt lõi của chủ nghĩa xã hội" trong hai trường hợp này.
Năm 2023, cơ quan quản lý quyết định định đi xa hơn. "Có thể họ lấy cảm hứng từ ông Tập Cận Bình, người hay dẫn ra các giá trị đó. Có thể đó là cách để cho lãnh đạo của họ thấy là họ học theo tấm gương của của ông", bà Guangyu Qiao-Franco nhận định.
Trong giả thuyết đó, AI sẽ tham gia vào ngày càng nhiều mảng của nền kinh tế đang chịu sự trở lại chi phối của ý thức hệ. Đó cũng đã là một trong những ưu tiên của chủ tịch Trung Quốc. Đây cũng là yếu tố không thuận lợi cho các công ty Trung Quốc đang muốn cạnh tranh với ChatGPT. Làm thế nào để tạo ra một công cụ AI "tương thích-xã hội" ? Chuyên gia Xin Sun cho rằng "trước hết phải tạo ra một bộ lọc ở đầu vào và đầu ra của phần mềm».
Chậm chân so với Hoa Kỳ ?
Sự kiểm duyệt kép này trước tiên sẽ biện minh cho việc sàng lọc thông tin từ cơ sở dữ liệu mà A.I sẽ rút ra để tìm câu trả lời. Sau đó, "có lẽ sẽ cần phải thiết lập một hệ thống xác minh các câu trả lời cuối cùng để đảm bảo rằng chúng không chứa bất kỳ điều gì trái với quy định", Xin Sun giải thích.
Vẫn còn bí ẩn lớn về những công cụ AI này. "Vấn đề là chúng ta hoàn toàn không biết tại sao những chiếc máy này lại chọn câu trả lời này thay vì một câu trả lời khác dựa trên dữ liệu mà chúng tôi cung cấp cho chúng", Joseph Sifakis, giám đốc nghiên cứu của Đại học Grenoble (Pháp) giải thích. Ông là người Pháp duy nhất được trao giải thưởng Turing ( một giải có thể gọi là Nobel về trí tuệ nhân tạo). Nói cách khác, không kỹ sư nào có thể đảm bảo 100% với đảng Cộng Sản Trung Quốc rằng chatbot của họ sẽ duy trì nghiêm ngặt trong khuôn khổ "giá trị cốt lõi của chủ nghĩa xã hội".
Các chủ công ty của Trung Quốc đề nghị phải được biết rõ ràng cái gì họ được làm cái gì không được làm. Khái niệm mập mờ xung quanh các "giá trị cốt lõi của chủ nghĩa xã hội" buộc các công ty phải tiến hành hết sức thận trọng. Điều này khiến cho họ có thể bị chậm chân trong cuộc cạnh tranh, đặc biệt là với các công ty Mỹ.
Như vậy chính quyền Trung Quốc tự đặt mình trước những mâu thuẫn của chính họ. Thực ra, trí tuệ nhân tạo nằm trong danh sách các lĩnh vực ưu tiên phát triển của Bắc Kinh trong cuộc tranh giành vị trí dẫn đầu thế giới. Thậm chí còn là nhiệm vụ trọng tâm bởi chính quyền "coi trí tuệ nhân tạo như là điện, tức là một ngành công nghệ giúp phát triển lĩnh vực ưu tiên khác chẳng hạn như tự động hóa hay công nghệ sinh học..." Chuyên gia Guangyu Qiao-Franco nhấn mạnh.
Vậy là với những quy định mới Bắc Kinh đã tự bắn vào chân mình. Nó có nguy cơ làm chậm cải tiến trong một lĩnh vực quan trọng. Nhưng đồng thời các nước khác cũng sẽ suy tính cách thức tốt nhất để thiết lập quy chế cho lĩnh vực này.
Chính quyền và các nhà chuyên môn của lĩnh vực này còn cần phải thống nhất với nhau thế nào là một tác nhân hội thoại tương thích với chủ nghĩa xã hội theo kiểu Trung Quốc. Đây sẽ là chủ đề của các cuộc tham khảo mà chính phủ dự định tiến hành với các tập đoàn Trung Quốc muốn lấn át ChatGPT. Ngoài Alibaba, Bách Độ (Baibu) hay Tencent, còn có rất đông những tập đoàn mạnh như thế.
(France24.com)
Anh Vũ biên dịch