Trí tuệ nhân tạo Chat GPT: Kỷ nguyên mới nhưng hàng tỷ người có thể gặp nguy hiểm

Huỳnh Dũng Chủ nhật, ngày 29/01/2023 09:01 AM (GMT+7)
Các nhà xuất bản của hàng nghìn tạp chí khoa học đã cấm, hoặc hạn chế việc cộng tác viên sử dụng một chatbot tiên tiến do AI điều khiển như ChatGPT trong bối cảnh lo ngại rằng, nó có thể tiêu diệt tài liệu học thuật, bằng nghiên cứu thiếu sót và thậm chí bịa đặt.
Bình luận 0

Vốn dĩ, ChatGPT ra mắt vào ngày 30/11/2022 nhưng là một phần của bộ công nghệ rộng lớn hơn được phát triển bởi công ty khởi nghiệp OpenAI có trụ sở tại San Francisco, công ty nàycũng có mối quan hệ chặt chẽ với Microsoft.

Đó là một phần của thế hệ hệ thống AI mới có thể trò chuyện, tạo văn bản có thể đọc được theo yêu cầu và thậm chí tạo ra những hình ảnh và video mới dựa trên những gì nó đã học được từ cơ sở dữ liệu khổng lồ về sách kỹ thuật số, bài viết trực tuyến và các phương tiện khác.

Nhưng không giống như các lần lặp lại trước đây của cái gọi là "mô hình ngôn ngữ lớn", chẳng hạn như GPT-3 của OpenAI, ra mắt vào năm 2020, công cụ ChatGPT có sẵn miễn phí cho bất kỳ ai có kết nối internet và được thiết kế để thân thiện hơn với người dùng. Nó hoạt động giống như một cuộc đối thoại bằng văn bản giữa hệ thống AI và người đặt câu hỏi cho nó.

Hàng triệu người đã chơi với nó trong tháng qua, sử dụng nó để viết những bài thơ hoặc bài hát ngớ ngẩn, để cố lừa nó mắc lỗi hoặc cho các mục đích thiết thực hơn như giúp soạn email. Tất cả những truy vấn đó cũng đang giúp nó trở nên thông minh hơn.

Kể từ khi ChatGPT được phát hành vào ngày 30/11/2022, những người làm trong lĩnh vực viết lách ngày càng quan tâm nhiều hơn đến chatbot thành thạo đáng sợ, chuyên bắt chước cách viết của họ. Ảnh: @AFP.

Kể từ khi ChatGPT được phát hành vào ngày 30/11/2022, những người làm trong lĩnh vực viết lách ngày càng quan tâm nhiều hơn đến chatbot thành thạo đáng sợ, chuyên bắt chước cách viết của họ. Ảnh: @AFP.

Ở đây, ChatGPT, một chatbot lưu loát nhưng không ổn định được phát triển bởi công ty OpenAI ở California, đã gây ấn tượng, hoặc làm phiền lòng hơn một triệu người dùng bằng cách đọc ra những bài thơ, truyện ngắn, bài tiểu luận và thậm chí cả lời khuyên cá nhân kể từ khi ra mắt vào tháng 11/2022.

Việc sử dụng hợp pháp hơn ChatGPT trong việc chuẩn bị bài viết đã dẫn đến việc nó được ghi nhận là đồng tác giả trên một số bài báo.

Sự xuất hiện đột ngột của ChatGPT đã khiến các nhà xuất bản tranh giành phản hồi. Mới đây, Holden Thorp, tổng biên tập của tạp chí Khoa học hàng đầu của Hoa Kỳ, đã công bố chính sách biên tập cập nhật, trong đó cấm sử dụng văn bản từ ChatGPT, và làm rõ rằng chương trình ChatGPT không thể được liệt kê là đồng tác giả.

Thorp nói: "Với sự điên cuồng đã hình thành xung quanh vấn đề này, bạn nên làm rõ ràng rằng chúng tôi sẽ không cho phép ChatGPT trở thành tác giả, đồng tác giả hoặc sử dụng văn bản của nó trong các bài báo".

Các tạp chí khoa học hàng đầu yêu cầu các tác giả ký vào một mẫu đơn tuyên bố rằng, họ phải chịu trách nhiệm về những đóng góp của ChatGPT cho các công trình của mình. Vì ChatGPT không thể chịu trách nhiệm nên nó không thể là tác giả, Thorp nói.

Nhưng ngay cả việc sử dụng ChatGPT trong việc chuẩn bị để ra một bài báo cũng có vấn đề, ông ấy tin là như vậy. Bởi theo ông, ChatGPT mắc nhiều lỗi, nên nếu các nhà khoa học dựa vào các chương trình AI để chuẩn bị đánh giá tài liệu hoặc tóm tắt phát hiện của họ, thì thao tác xem xét kết quả theo bối cảnh phù hợp có nguy cơ bị mất. Đó là hướng ngược lại với nơi chúng ta cần đến trong công tác nghiên cứu, cũng như viết lách", Holden Thorp nói thêm.

Các tạp chí khoa học cấm liệt kê ChatGPT với tư cách là đồng tác giả trên các bài báo. Ảnh: @AFP.

Các tạp chí khoa học cấm liệt kê ChatGPT với tư cách là đồng tác giả trên các bài báo. Ảnh: @AFP.

Các nhà xuất bản khác đã thực hiện những thay đổi tương tự. Mới đây, Springer-Nature, nơi xuất bản gần 3.000 tạp chí, đã cập nhật hướng dẫn của mình để tuyên bố rằng ChatGPT không thể được liệt kê là tác giả. Nhưng nhà xuất bản này đã không cấm ChatGPT hoàn toàn. Công cụ này, và những công cụ tương tự, vẫn có thể được sử dụng trong việc chuẩn bị để lên các bài báo, miễn là các chi tiết đầy đủ được tiết lộ trong bản thảo.

Magdalena Skipper, tổng biên tập của Tạp chí Nature cho biết: "Sự phát triển cụ thể mà chúng tôi cảm thấy rất cần thiết phải phản hồi là thực tế là công cụ này đột nhiên xuất hiện với tư cách là đồng tác giả".

Skipper tin rằng với các biện pháp bảo vệ phù hợp, ChatGPT và các công cụ AI tương tự có thể mang lại lợi ích cho khoa học, làm cho ngôn ngữ trong bài báo của họ trôi chảy hơn.

Elsevier, xuất bản khoảng 2.800 tạp chí, bao gồm cả Cell và Lancet, cũng có lập trường tương tự như Springer-Nature. Hướng dẫn của họ cho phép sử dụng các công cụ AI "để cải thiện ngôn ngữ của bài báo, cũng như các công trình nghiên cứu, nhưng nó không được thay thế các nhiệm vụ chính mà tác giả nên thực hiện, chẳng hạn như diễn giải dữ liệu hoặc rút ra kết luận khoa học", Andrew Davis của Elsevier cho biết thêm rằng, các tác giả phải khai báo nếu họ đã sử dụng các công cụ AI và đã sử dụng nó như thế nào.

Ở khía cạnh khác, một số nhà đạo đức học AI lo ngại rằng việc Big Tech tung ra thị trường các công cụ chatbot AI có thể khiến hàng tỷ người gặp nguy hiểm tiềm ẩn. Ảnh: @AFP.

Ở khía cạnh khác, một số nhà đạo đức học AI lo ngại rằng việc Big Tech tung ra thị trường các công cụ chatbot AI có thể khiến hàng tỷ người gặp nguy hiểm tiềm ẩn. Ảnh: @AFP.

Michael Eisen, tổng biên tập của eLife, cho biết ChatGPT không thể là tác giả, nhưng ông thấy việc áp dụng nó là điều tất yếu. "Tôi nghĩ câu hỏi tốt hơn không phải là có nên cho phép nó hay không, mà là làm thế nào để quản lý nó trong thực tế một cách hiệu quả", ông nói. "Điều quan trọng nhất, ít nhất hiện nay, là các tác giả phải thẳng thắn về việc sử dụng nó và mô tả cách nó được sử dụng, đồng thời để chúng tôi hiểu rõ rằng khi sử dụng công cụ này, họ chịu trách nhiệm về kết quả đầu ra của nó, tránh đi trường hợp trốn tránh trách nhiệm khi xảy ra sự cố, hậu quả".

Ở khía cạnh khác, một số nhà đạo đức học AI lo ngại rằng việc Big Tech tung ra thị trường các công cụ chatbot AI có thể khiến hàng tỷ người gặp nguy hiểm tiềm ẩn — chẳng hạn như chia sẻ thông tin không chính xác, tạo ảnh giả hoặc tạo điều kiện cho học sinh khả năng gian lận trong các bài kiểm tra ở trường — trước khi các chuyên gia về độ tin cậy và an toàn có thể nghiên cứu sâu hơn về độ chuẩn xác, an toàn kèm rủi ro của các công cụ AI.

Những người khác trong lĩnh vực này chia sẻ triết lý của OpenAI rằng, việc phát hành các công cụ ra công chúng, trên danh nghĩa thường là ở giai đoạn "beta", sau khi giảm thiểu một số rủi ro có thể dự đoán được, là cách duy nhất để đánh giá các tác hại trong thế giới thực.

Mời các bạn đồng hành cùng báo Dân Việt trên mạng xã hội Facebook để nhanh chóng cập nhật những tin tức mới và chính xác nhất.
Tin cùng chuyên mục
Xem theo ngày Xem