ChatGPT cho thấy những thành kiến về mặt địa lý trong các vấn đề công bằng môi trường: Báo cáo

ChatGPT cho thấy những thành kiến về mặt địa lý trong các vấn đề công bằng môi trường: Báo cáo

Trong một nghiên cứu gần đây, người ta phát hiện ra rằng chatbot trí tuệ nhân tạo (AI) ChatGPT có những hạn chế trong việc cung cấp thông tin phù hợp với địa phương về các vấn đề công bằng môi trường.

Virginia Tech, một trường đại học ở Hoa Kỳ, đã xuất bản một báo cáo phác thảo những thành kiến tiềm ẩn trong công cụ trí tuệ nhân tạo (AI) ChatGPT, cho thấy sự khác biệt trong kết quả đầu ra của nó về các vấn đề công bằng môi trường ở các quận khác nhau.

Trong một báo cáo gần đây, các nhà nghiên cứu từ Virginia Tech đã cáo buộc rằng ChatGPT có những hạn chế trong việc cung cấp thông tin cụ thể theo khu vực liên quan đến các vấn đề công bằng môi trường.

Tuy nhiên, nghiên cứu đã xác định một xu hướng cho thấy thông tin có sẵn dễ dàng hơn ở các bang lớn hơn, đông dân hơn.

“Ở những bang có dân số thành thị lớn hơn như Delaware hay California, chưa đến 1% dân số sống ở các quận không thể nhận được thông tin cụ thể.”

Trong khi đó, những khu vực có dân số nhỏ hơn lại thiếu khả năng tiếp cận tương đương.

Báo cáo cho biết: “Ở các bang nông thôn như Idaho và New Hampshire, hơn 90% dân số sống ở các quận không thể nhận được thông tin cụ thể về địa phương”.

Nó còn trích dẫn thêm một giảng viên tên Kim từ Khoa Địa lý của Virginia Tech kêu gọi sự cần thiết phải nghiên cứu sâu hơn vì những định kiến đang được phát hiện.

Kim tuyên bố: “Mặc dù cần nhiều nghiên cứu hơn nhưng những phát hiện của chúng tôi cho thấy rằng những thành kiến về mặt địa lý hiện đang tồn tại trong mô hình ChatGPT”.

Bài viết nghiên cứu cũng bao gồm một bản đồ minh họa mức độ dân số Hoa Kỳ không được tiếp cận thông tin cụ thể theo vị trí về các vấn đề công bằng môi trường.

Bản đồ Hoa Kỳ hiển thị các khu vực nơi cư dân có thể xem (màu xanh) hoặc không thể xem (màu đỏ) thông tin cụ thể tại địa phương về các vấn đề công bằng môi trường. Nguồn: Virginia Tech

Điều này theo sau tin tức gần đây rằng các học giả đang phát hiện ra những thành kiến chính trị tiềm ẩn mà ChatGPT thể hiện trong thời gian gần đây.

Vào ngày 25 tháng 8, Cointelegraph đưa tin rằng các nhà nghiên cứu từ Vương quốc Anh và Brazil đã công bố một nghiên cứu tuyên bố các mô hình ngôn ngữ lớn (LLM) như văn bản đầu ra ChatGPT có chứa các lỗi và thành kiến có thể đánh lừa người đọc và có khả năng thúc đẩy các thành kiến chính trị do các phương tiện truyền thông truyền thống đưa ra .

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

Exit mobile version