MAI QUYÊN (Theo Al Jazeera)
Trước sự phổ biến gần đây của ChatGPT, nhiều người đang đặt câu hỏi về tính thực tiễn và vấn đề đạo đức đối với triển vọng sử dụng trí tuệ nhân tạo (AI) trong điều trị bệnh tâm thần.
AI đang khơi dậy cuộc thảo luận về khả năng ứng dụng trong điều trị bệnh tâm thần. Ảnh: Getty Images
ChatGPT là nền tảng chatbot đột phá được hỗ trợ bởi AI, do công ty OpenAI của Mỹ phát triển và ra mắt năm ngoái. Công cụ xử lý ngôn ngữ tự nhiên này giúp người dùng thực hiện nhiều tác vụ như soạn email, viết luận, ngôn ngữ lập trình và viết content. Chúng cũng giải đáp nhiều thắc mắc, bao gồm vấn đề sức khỏe.
Ví dụ, chỉ cần nhập câu “Tôi cảm thấy lo lắng”, chatbot sẽ hoạt động gần như ngay lập tức. Ngoài trò chuyện an ủi, nền tảng này sẽ cung cấp loạt khuyến nghị cho người dùng chẳng hạn như tìm cách thư giãn và chú trọng giấc ngủ; cắt giảm bia, rượu và caffein; thay đổi suy nghĩ tiêu cực và tìm kiếm hỗ trợ từ gia đình, bạn bè. Không phải tất cả lời khuyên đều được cụ thể hóa, nhưng vai trò của ChatGPT nhìn chung có phần giống các nhà trị liệu hoặc những bài viết khoa học trên mạng. Ðiều đó khiến nhiều người tìm đến nền tảng này như giải pháp trị liệu cá nhân. Một số khẳng định trải nghiệm của họ với chatbot tương đương, thậm chí tốt hơn liệu pháp truyền thống khi điều trị các tình trạng nhẹ và phổ biến như lo lắng hay trầm cảm.
Bản thân nền tảng có lưu ý rằng nó không thể thay thế vai trò của nhà tâm lý học hoặc chuyên gia tư vấn. Nhưng khả năng nổi bật của ChatGPT trong việc mô phỏng cuộc trò chuyện của con người đã đặt ra câu hỏi về tiềm năng lớn của AI trong điều trị các tình trạng sức khỏe tâm thần, nhất là ở những khu vực có phần kỳ thị khiến các dịch vụ điều trị sức khỏe tâm lý bị chậm trễ.
Về lý thuyết, liệu pháp AI dễ tiếp cận nên mang lại khả năng hỗ trợ nhanh, chi phí rẻ so với các dịch vụ sức khỏe tâm thần truyền thống. Quan trọng hơn nữa, nó cho phép người có vấn đề về tâm lý tránh được cảm giác bị phán xét và xấu hổ. Theo thời gian, AI có triển vọng hoặc thậm chí dẫn đầu ngành điều trị sức khỏe tâm thần. Viễn cảnh này đồng thời đặt ra vô số mối quan tâm về tính khả dụng và phạm trù đạo đức. Nó bao gồm cách bảo vệ thông tin cá nhân và hồ sơ y tế, cũng như câu hỏi liệu một chương trình máy tính thực sự có khả năng đồng cảm với bệnh nhân hoặc nhận biết các dấu hiệu cảnh báo như nguy cơ người bệnh tự làm hại bản thân hay không.
Trước ChatGPT, việc sử dụng AI trong các ứng dụng hỗ trợ sức khỏe tâm thần chuyên dụng như Wysa, Heyy và Woebot cũng bị giới hạn trong các hệ thống “dựa trên quy tắc”. Những ứng dụng này mô phỏng nhiều khía cạnh của quy trình trị liệu, tập trung vào việc thay đổi cách suy nghĩ và hành vi của bệnh nhân bằng cách sử dụng một số tổ hợp câu hỏi và câu trả lời bằng văn bản do con người chọn. Người đăng ký sẽ được chuyển đến nhà trị liệu là con người, nếu các câu hỏi của họ nghiêm trọng. Những người sáng lập các ứng dụng trên đều nhấn mạnh rằng họ không cố gắng thay thế liệu pháp con người trong điều trị tâm lý. Thay vào đó, các phần mềm cung cấp công cụ trong điều trị sức khỏe tâm thần giai đoạn đầu và đóng vai trò như giải pháp tạm thời cho những bệnh nhân đang chờ gặp bác sĩ trị liệu.
Ngược lại, ChatGPT và những nền tảng khác dựa trên AI tổng quát, tạo ra các cuộc đối thoại dạng tự do và không phân biệt rõ tình huống thực tế trong lời nói của con người. Nhiều chuyên gia lo ngại chúng có thể dẫn đến những sai lầm tai hại, thậm chí rủi ro không thể kiểm soát. Chẳng hạn như vụ việc ghi nhận hồi đầu năm nay, theo đó, một người đàn ông Bỉ được cho đã tự sát sau khi tâm sự với nền tảng chatbot Chai.