Ngày 8/4, Ủy ban Châu Âu cho biết các công ty làm việc với tí tuệ nhân tạo cần thiết lập các cơ chế trách nhiệm để ngăn chặn nó bị lạm dụng.
Theo các hướng dẫn đạo đức mới cho sử dụng công nghệ AI của EU, các dự án AI phải minh bạch, có sự giám sát của con người và các thuật toán an toàn, đáng tin cậy và phải tuân theo các quy tắc bảo vệ dữ liệu và quyền riêng tư.
Hướng dẫn của EU nhấn mạnh vào cuộc tranh luận toàn cầu về việc khi nào hoặc liệu các công ty có nên đặt mối quan tâm về đạo đức trước lợi ích kinh doanh hay không và các nhà quản lý có thể đủ khả năng để thực hiện các dự án mới như thế nào mà không mạo hiểm phá hủy sự đổi mới.

EU ban hành các quy tắc đạo đức trong ứng dụng trí tuệ nhân tạo
"Các khía cạnh đạo đức của AI không phải là một tính năng xa xỉ hay một tiện ích bổ sung. Chỉ với sự tin tưởng rằng xã hội của chúng ta hoàn toàn có thể hưởng lợi từ các công nghệ," Cao ủy kỹ thuật số của EU, Andrus Ansip nói trong một tuyên bố.
AI có thể giúp phát hiện các mối đe dọa gian lận và an ninh mạng, cải thiện quản lý rủi ro tài chính và chăm sóc sức khỏe, giải quyết biến đổi khí hậu.
Chưa có bình luận. Hãy là người đầu tiên bình luận bài viết này.