Trước tình hình các tạp chí xuất bản các bài báo trong đó chatbot như ChatGPT được hiển thị là đồng tác giả, ngày 20/01/2023, Hiệp hội các Biên tập viên Y học Thế giới (WAME: World Association of Medical Editors) đã cho ra đời bản "Khuyến nghị của WAME về ChatGPT và Chatbot liên quan đến xuất bản học thuật" (Phiên bản 1). Đến ngày 31/5/2023, WAME phát hành bản sửa đổi "Khuyến nghị của WAME về Chatbot và AI tạo sinh liên quan đến xuất bản học thuật" (Phiên bản 2). Bài viết lược dịch và giới thiệu các nội dung chính của bản Khuyến nghị (Phiên bản 2).
Chatbot được kích hoạt bởi hướng dẫn bằng ngôn ngữ thông thường, hay "lời nhắc" (prompt) do người dùng cung cấp. Chúng tạo ra phản hồi bằng cách sử dụng các mô hình ngôn ngữ thống kê và dựa trên xác suất. Đầu ra này thường chính xác và trôi chảy về mặt ngôn ngữ nhưng có nguy cơ bao gồm các thiên vị, bóp méo, không liên quan, trình bày sai lệch và đạo văn... Do đó, có những lo ngại về tác động của chatbot đối với việc tạo ra và phổ biến kiến thức - bao gồm khả năng phát tán và khuếch đại thông tin sai lệch và gây nhầm lẫn - và tác động rộng hơn đối với việc làm và nền kinh tế, cũng như sức khỏe của cá nhân và cộng đồng. Nhiều vấn đề pháp lý mới cũng đã phát sinh liên quan đến chatbot và AI tạo sinh.
Chatbots lưu giữ thông tin được cung cấp cho chúng, bao gồm nội dung và lời nhắc, và có thể sử dụng thông tin này trong các phản hồi trong tương lai. Do đó, nội dung học thuật được tạo ra hoặc chỉnh sửa bằng AI sẽ được lưu giữ và có khả năng xuất hiện trong các phản hồi trong tương lai, làm tăng thêm nguy cơ đạo văn không chủ ý từ phía người dùng và bất kỳ người sử dụng công nghệ nào trong tương lai. Bất kỳ ai cần duy trì tính bảo mật của tài liệu, bao gồm tác giả, biên tập viên và người phản biện, cần nhận thức về vấn đề này trước khi cân nhắc sử dụng chatbot để chỉnh sửa hoặc tạo ra công trình.
Các khuyến nghị này tìm cách đề xuất một cách tiếp cận khả thi đối với những lo ngại hợp lệ về việc sử dụng chatbot trong xuất bản học thuật.
Các khuyến nghị của WAME
Khuyến nghị 1: Chatbot không thể là tác giả.
Các tạp chí đã bắt đầu xuất bản các bài báo trong đó các chatbot như Bard, Bing và ChatGPT đã được sử dụng, với một số tạp chí liệt kê chatbot là đồng tác giả. Tình trạng pháp lý của tác giả khác nhau tùy theo quốc gia nhưng theo hầu hết các khu vực pháp lý, một tác giả phải là một pháp nhân. Chatbot không đáp ứng các tiêu chí về quyền tác giả của Ủy ban Quốc tế các Biên tập viên Tạp chí Y khoa (ICMJE), đặc biệt là khả năng đưa ra "sự chấp thuận cuối cùng đối với phiên bản sẽ được xuất bản" và "chịu trách nhiệm về mọi khía cạnh của công trình để bảo đảm rằng các câu hỏi liên quan đến tính chính xác hoặc tính liêm chính của bất kỳ phần nào của công trình đều được điều tra và giải quyết một cách thích hợp". Không có công cụ AI nào có thể "hiểu" một tuyên bố về xung đột lợi ích và không có tư cách pháp lý để ký một tuyên bố. Chatbot không có nhiệm sở nào độc lập với nhà phát triển chúng. Vì các tác giả gửi bản thảo phải đảm bảo rằng tất cả những người được nêu tên là tác giả đều đáp ứng các tiêu chí về quyền tác giả, nên chatbot không thể được coi là tác giả.
Khuyến nghị 2: Tác giả phải minh bạch khi sử dụng chatbot và cung cấp thông tin về cách chatbot được sử dụng.
Cần nêu rõ mức độ và cách sử dụng chatbot trong các công bố trên tạp chí. Điều này phù hợp với khuyến nghị của ICMJE về việc ghi nhận/cảm ơn sự hỗ trợ trong viết bài và cung cấp thông tin chi tiết về cách nghiên cứu được tiến hành và kết quả được tạo ra trong phần Phương pháp.
Khuyến nghị 2.1: Tác giả nộp bài báo trong đó sử dụng chatbot/AI để soạn thảo văn bản mới phải ghi rõ việc sử dụng đó trong phần Ghi nhận/Cảm ơn; tất cả lời nhắc được sử dụng để tạo văn bản mới hoặc để chuyển đổi văn bản hoặc lời nhắc văn bản thành bảng hoặc hình ảnh minh họa phải được nêu rõ ra.
Khuyến nghị 2.2: Khi sử dụng công cụ AI như chatbot để thực hiện hoặc tạo ra công trình phân tích, để giúp báo cáo kết quả (ví dụ : tạo bảng hoặc hình ảnh) hoặc viết mã máy tính, phải nêu trong nội dung của bài báo, cả trong cả phần Tóm tắt và phần Phương pháp. Vì mục đích giám sát khoa học, bao gồm cả việc sao chép và nhận diện sự ngụy tạo, cần cung cấp lời nhắc đầy đủ được sử dụng để tạo kết quả nghiên cứu, thời gian và ngày truy vấn, công cụ AI được sử dụng và phiên bản của công cụ đó.
Khuyến nghị 3: Tác giả chịu trách nhiệm về tài liệu do chatbot cung cấp trong bài báo của mình (bao gồm tính chính xác của nội dung được trình bày và không có đạo văn) và về thông tin phù hợp của tất cả các nguồn tham khảo (bao gồm cả nguồn gốc của tài liệu do chatbot tạo ra).
Tác giả của các bài viết được viết với sự trợ giúp của chatbot chịu trách nhiệm về tài liệu do chatbot tạo ra, bao gồm cả tính chính xác của tài liệu. Lưu ý rằng đạo văn là "hành vi lấy tác phẩm hoặc ý tưởng của người khác và coi đó là của mình", không chỉ là việc lặp lại nguyên văn văn bản đã xuất bản trước đó. Tác giả có trách nhiệm bảo đảm rằng nội dung phản ánh dữ liệu và ý tưởng của tác giả và không phải là đạo văn, bịa đặt hoặc ngụy tạo. Nếu không, việc cung cấp tài liệu như vậy để xuất bản có khả năng là hành vi sai trái về mặt khoa học, bất kể tài liệu đó được viết như thế nào. Tương tự, tác giả phải bảo đảm rằng tất cả tài liệu được viện dẫn đều có thông tin phù hợp, bao gồm trích dẫn đầy đủ, và các nguồn được trích dẫn hỗ trợ cho các nhận định của chatbot. Vì chatbot có thể được thiết kế để bỏ qua các nguồn ngược với quan điểm được thể hiện trong đầu ra của nó, nên tác giả có trách nhiệm tìm kiếm, xem xét và đưa các quan điểm trái chiều như vậy vào bài viết của mình (dĩ nhiên, những thiên vị như vậy cũng được tìm thấy ở các tác giả là con người). Tác giả nên xác định chatbot được sử dụng và lời nhắc cụ thể (câu lệnh truy vấn) được sử dụng với chatbot. Nên nêu rõ những gì đã làm để giảm thiểu rủi ro đạo văn, cung cấp quan điểm cân bằng và đảm bảo tính chính xác của tất cả các tài liệu tham khảo của mình.
Khuyến nghị 4: Biên tập viên và người phản biện phải chỉ rõ, với tác giả và với nhau, bất kỳ việc sử dụng chatbot nào trong quá trình đánh giá bản thảo và tạo ra các bản nhận xét và thư từ liên lạc.
Nếu họ sử dụng chatbot trong giao tiếp với tác giả và với nhau, họ phải giải thích đã sử dụng chatbot như thế nào. Biên tập viên và người phản biện chịu trách nhiệm về mọi nội dung và trích dẫn do chatbot tạo ra. Họ nên biết rằng chatbot lưu giữ các lời nhắc được cung cấp cho chúng, bao gồm nội dung bản thảo và việc cung cấp bản thảo của tác giả cho chatbot sẽ vi phạm tính bảo mật của bản thảo đã gửi.
Khuyến nghị 5: Biên tập viên cần các công cụ phù hợp để giúp họ phát hiện nội dung do AI tạo ra hoặc thay đổi.
Các công cụ như vậy nên được cung cấp cho biên tập viên bất kể khả năng chi trả cho chúng, vì lợi ích của khoa học và cộng đồng, và để giúp đảm bảo tính liêm chính của thông tin chăm sóc sức khỏe và giảm rủi ro của các kết quả về sức khỏe bất lợi. Nhiều biên tập viên tạp chí y khoa sử dụng các tiếp cận đánh giá bản thảo không được thiết kế để đối phó với các đổi mới và công nghệ AI, bao gồm văn bản và hình ảnh bị đạo văn bị thao túng, các bản thảo do các công xưởng sản xuất bài báo tạo ra. Họ vốn đã khó khăn khi cố gắng phân biệt nội dung hợp pháp với nội dung bịa đặt, nay các chatbot đưa thách thức này lên một tầm cao mới. Biên tập viên cần tiếp cận các công cụ giúp họ đánh giá nội dung một cách hiệu quả và chính xác. Điều này đặc biệt quan trọng đối với biên tập viên của các tạp chí y khoa, nơi hậu quả bất lợi của thông tin sai lệch chứa đựng các tác hại tiềm ẩn đối với con người.

Nhận xét
Đăng nhận xét