Mối quan tâm về trí tuệ nhân tạo thường xoay quanh các vấn đề như thông tin sai lệch hoặc khả năng công nghệ này thoát khỏi sự kiểm soát của con người. Tuy nhiên, có thể cho rằng mối quan tâm thực sự hơn hiện nay là cách các chính phủ tận dụng AI và sự hiểu biết về thể chế của họ (hoặc thiếu) về những thiếu sót của nó. Ví dụ, chính phủ Anh dường như đã áp dụng công nghệ này với tốc độ có thể bị coi là vội vàng và có khả năng không an toàn.
Theo Guardian, nhiều cơ quan chính phủ Anh đã bắt đầu sử dụng trí tuệ nhân tạo để tác động đáng kể đến cuộc sống hàng ngày của người dân bình thường. Công nghệ hiện nay đóng một vai trò trong nhiều thủ tục khác nhau, từ bắt giữ, cấp phép kết hôn cho đến thanh toán phúc lợi.
Ngay cả trước khi trí tuệ nhân tạo trở thành xu hướng được thảo luận rộng rãi, việc cảnh sát sử dụng hệ thống nhận dạng khuôn mặt đã gây tranh cãi. Các nhà phê bình từ lâu đã cảnh báo về khả năng thiếu chính xác của nó, đặc biệt là khi phân tích các đối tượng có làn da sẫm màu. Sự thiếu chính xác này thậm chí đã dẫn đến việc giam giữ sai trái trong quá khứ. Mặc dù nhận thức được những thiếu sót này, Cảnh sát Thủ đô London vẫn tiếp tục sử dụng tính năng nhận dạng khuôn mặt và thực hiện các sửa đổi có thể gây hại cho công nghệ.
Phòng thí nghiệm Vật lý Quốc gia Vương quốc Anh cho biết hệ thống này thường duy trì tỷ lệ lỗi thấp ở cài đặt mặc định. Tuy nhiên, nếu Cảnh sát Thủ đô giảm độ nhạy cảm để xác định nghi phạm nhanh hơn thì sẽ dẫn đến nhiều cảnh báo sai hơn. Kết quả là hệ thống trở nên kém chính xác hơn đối với người da đen, kém chính xác gấp 5 lần so với người da trắng.
Ngoài ra, các công cụ dựa trên AI của chính phủ được sử dụng để phê duyệt phúc lợi và giấy phép kết hôn đã cho thấy xu hướng phân biệt đối xử với những người nộp đơn từ một số quốc gia nhất định. Một nghị sĩ nhấn mạnh nhiều trường hợp trong những năm gần đây khi phúc lợi bị đình chỉ một cách không thể giải thích được, khiến các cá nhân đứng trước bờ vực bị trục xuất và nghèo đói cùng cực. Vấn đề cơ bản bị nghi ngờ là hệ thống của Bộ Lao động và Lương hưu (DWP) để phát hiện gian lận lợi ích, một phần dựa vào trí tuệ nhân tạo.
Công cụ này gắn cờ công dân Bulgaria một cách không tương xứng ngay cả khi không có bằng chứng gian lận đáng kể. DWP khẳng định hệ thống này không tính đến quốc tịch. Tuy nhiên, họ thừa nhận chưa nắm bắt đầy đủ hoạt động bên trong của AI, hiểu rằng các hệ thống có khả năng kiểm soát thành kiến hạn chế và lo ngại rằng các tác nhân xấu có thể thao túng hệ thống.
Tương tự, Bộ Nội vụ cũng đang đối mặt với thách thức về một công cụ do AI điều khiển được thiết kế để xác định các cuộc hôn nhân giả. Trong khi hệ thống đơn giản hóa quy trình phê duyệt giấy phép kết hôn, một cuộc đánh giá nội bộ đã phát hiện ra một số lượng lớn thông tin sai lệch, đặc biệt đối với những người nộp đơn từ Hy Lạp, Albania, Bulgaria và Romania.
Có thể có những sơ suất khác trong quá trình triển khai AI của chính phủ, nhưng rất khó để xác định chúng nếu không có dữ liệu minh bạch từ các cơ quan liên quan.
Những hiểu lầm về những hạn chế của trí tuệ nhân tạo đã gây ra những sự cố nghiêm trọng trong các cơ quan chính phủ và pháp luật khác. Đầu năm nay, một luật sư Hoa Kỳ đã cố gắng sử dụng ChatGPT để trích dẫn các vụ việc được đệ trình lên tòa án liên bang nhưng phát hiện ra rằng tất cả chúng đều là do chatbot bịa đặt. Những trường hợp này ngày càng chứng minh rằng những rủi ro thực sự của AI có thể xuất phát từ việc con người lạm dụng nhiều hơn là từ chính công nghệ.