Các nhà nghiên cứu đã sử dụng trí tuệ nhân tạo để tạo ra cách cải thiện chất lượng và tính lịch sự của các cuộc thảo luận trực tuyến về các chủ đề phân cực bằng cách cung cấp cho người dùng các đề xuất để diễn đạt lại nhận xét của họ trước khi đăng. Họ nói rằng nếu được sử dụng đúng cách, trí tuệ nhân tạo có thể được sử dụng để tạo ra một môi trường kỹ thuật số thân thiện hơn và an toàn hơn.

Các cuộc trò chuyện trực tuyến hiện đóng vai trò trung tâm trong các cuộc thảo luận công khai. Tuy nhiên, phần bình luận trên các nền tảng truyền thông xã hội và các hãng tin tức kỹ thuật số chứa đầy các cuộc thảo luận chuyển sang tranh luận, đe dọa và chỉ trích, đặc biệt khi các cuộc thảo luận đề cập đến các chủ đề gây chia rẽ.

Giờ đây, các nhà nghiên cứu tại Đại học Brigham Young (BYU) và Đại học Duke đã phát triển trí tuệ nhân tạo có thể kiểm duyệt các cuộc trò chuyện trực tuyến, cải thiện chất lượng trò chuyện và đề cao tính lịch sự.

Họ tuyển 1.574 người tham gia vào một cuộc thử nghiệm thực địa, yêu cầu họ tham gia vào các cuộc thảo luận trực tuyến về kiểm soát súng ở Hoa Kỳ, một vấn đề gây chia rẽ thường được nêu ra trong các cuộc tranh luận chính trị. Mỗi người tham gia được ghép đôi với một người phản đối chính sách súng.

Sau khi ghép nối thành công, các đối tác đàm thoại được chỉ định ngẫu nhiên vào điều kiện điều trị hoặc kiểm soát rồi bắt đầu cuộc trò chuyện. Khi xử lý cuộc trò chuyện, người tham gia sẽ nhận được ba đề xuất diễn đạt lại từ GPT-3 trước khi gửi tin nhắn. Người tham gia có thể chọn gửi một trong ba lựa chọn thay thế do AI đề xuất, tin nhắn gốc của riêng họ hoặc chỉnh sửa bất kỳ tin nhắn nào.

Tin nhắn được viết lại do AI gợi ý không làm thay đổi nội dung bình luận nhưng cung cấp cho người dùng tùy chọn đưa ra phát ngôn lịch sự hơn.

Trung bình có 12 tin nhắn được gửi cho mỗi cuộc trò chuyện và AI đã đề xuất tổng cộng 2.742 tin nhắn được viết lại. Những người tham gia chấp nhận những thay đổi từ được đề xuất của AI trong 2/3 thời gian. Đối tác trò chuyện của những người đã triển khai một hoặc nhiều đề xuất diễn đạt lại của AI đã báo cáo các cuộc trò chuyện có chất lượng cao hơn đáng kể và sẵn sàng lắng nghe quan điểm của đối thủ chính trị của họ hơn.

David Wingate, một trong những đồng tác giả của nghiên cứu, cho biết: "Chúng tôi nhận thấy rằng việc sử dụng cách diễn đạt lại càng thường xuyên thì càng có nhiều khả năng những người tham gia cảm thấy cuộc trò chuyện kém ngắn gọn hơn. Không gây chia rẽ, họ cảm thấy được lắng nghe và hiểu."

Các nhà nghiên cứu cho biết phát hiện của họ cho thấy giải pháp có thể mở rộng này có thể chống lại nền văn hóa trực tuyến độc hại đang tràn lan khắp thế giới internet. Họ cho rằng điều này sẽ dễ thực hiện hơn các khóa đào tạo chuyên nghiệp về văn minh mạng vốn bị hạn chế về phạm vi và tính sẵn có vì các biện pháp can thiệp bằng AI có thể được triển khai rộng rãi trên nhiều kênh kỹ thuật số.

Nghiên cứu cho thấy một cách thuyết phục rằng, nếu được sử dụng đúng cách, trí tuệ nhân tạo có thể đóng một vai trò quan trọng trong việc tạo ra một môi trường trực tuyến tích cực hơn, thúc đẩy thảo luận nhân ái và tôn trọng, các nhà nghiên cứu cho biết.

Wingate cho biết: "Tôi hy vọng chúng ta có thể tiếp tục có nhiều sinh viên BYD xây dựng các ứng dụng hỗ trợ xã hội như thế này và BYD có thể trở thành người dẫn đầu trong việc thể hiện các cách sử dụng máy học có đạo đức." Trong một thế giới bị thông tin thống trị, chúng ta cần những sinh viên có thể xử lý thông tin của thế giới theo những cách tích cực và có lợi cho xã hội."

Nghiên cứu được công bố trong Kỷ yếu của Viện Hàn lâm Khoa học Quốc gia (PNAS).