Assessing and alleviating state anxiety in large language models.

 0 Người đánh giá. Xếp hạng trung bình 0

Tác giả: Ziv Ben-Zion, Achim Burrer, Or Duek, Ilan Harpaz-Rotem, Philipp Homan, Akshay K Jagadish, Marie-Christine Khorsandian, Eric Schulz, Erich Seifritz, Tobias R Spiller, Kristin Witte

Ngôn ngữ: eng

Ký hiệu phân loại: 617.553 +Stomach

Thông tin xuất bản: England : NPJ digital medicine , 2025

Mô tả vật lý:

Bộ sưu tập: NCBI

ID: 703310

The use of Large Language Models (LLMs) in mental health highlights the need to understand their responses to emotional content. Previous research shows that emotion-inducing prompts can elevate "anxiety" in LLMs, affecting behavior and amplifying biases. Here, we found that traumatic narratives increased Chat-GPT-4's reported anxiety while mindfulness-based exercises reduced it, though not to baseline. These findings suggest managing LLMs' "emotional states" can foster safer and more ethical human-AI interactions.
Tạo bộ sưu tập với mã QR

THƯ VIỆN - TRƯỜNG ĐẠI HỌC CÔNG NGHỆ TP.HCM

ĐT: (028) 36225755 | Email: tt.thuvien@hutech.edu.vn

Copyright @2024 THƯ VIỆN HUTECH