Dự án Purple Llama của Meta nhằm mục đích tạo ra bộ công cụ nguồn mở giúp các nh?
? phát triển xây dựng các mô hình AI tạo sinh một cách có trách nhi?
?m.
Meta đang nỗ lực khẳng định vai trò tiên phong trong quá trình phát triển các côn
g ngh??? AI.
Meta đã giới thiệu Purple Llama, một dự án dành riêng cho việc tạo ra các công cụ nguồn mở để các nh?
? phát triển đánh giá và nâng cao độ tin cậy và an toàn của các mô hình trí tuệ nhân tạo (AI) tạo sinh trước kh
i chúng được đưa vào sử dụng.
Meta nhấn mạnh sự cần thiết của những nỗ lực hợp tác trong việc đảm bảo an toàn cho AI, đồng thời cho rằng các thách thức về AI không thể được giải quyết một cách biệt lập.
Công ty cho biết mục tiêu của Purple Llama là thiết lập một nền tảng chung để phát triển AI tạo sinh an toàn hơn khi mối lo ngại ngày càng tăng về các mô hình ngôn ngữ lớn và các côn
g ngh??? AI khác.
Gareth Lindahl-Wise, Giám đốc An ninh thông tin tại Công ty an ninh mạng Ontinue, gọi Purple Llama là “một bước đi tích cực và chủ động” hướng tới côn
g ngh??? AI an toàn hơn.
Dự án Purple Llama hợp tác với các nh?
? phát triển AI; dịch vụ đám mây như AWS và Google Cloud; các công ty bán dẫn như Intel, AMD và Nvidia; và các công ty phần mềm, gồm cả Microsoft.
Bộ công cụ đầu tiên được phát hành thông qua Purple Llama là CyberSecEval - công cụ đánh giá rủi ro an ninh mạng trong phần mềm do AI tạo ra.
Nó có mô hình ngôn ngữ xác định văn bản không phù hợp hoặc có hại, bao gồm các cuộc thảo luận về bạo lực hoặc hoạt vi bất hợp pháp.
Các nh?
? phát triển có thể sử dụng CyberSecEval để kiểm tra mô hình AI của họ có xu hướng tạo mã không an toàn hoặc hỗ trợ các cuộc tấn công mạng hay không.
Nghiên cứu của Meta đã phát hiện ra rằng các mô hình ngôn ngữ lớn thường đề xuất mã dễ bị tấn công, nêu bật tầm quan trọng của việc thử nghiệm và cải tiến liên tục đối với b?
?o m??t AI.
Llama Guard là một bộ công cụ khác - một mô hình ngôn ngữ lớn được đào tạo để xác định ngôn ngữ có khả năng gây hại hoặc xúc phạm.
Các nh?
? phát triển có thể sử dụng Llama Guard để kiểm tra xem mô hình của họ có tạo ra hoặc chấp nhận nội dung không an toàn hay không, giúp lọc ra các lời nhắc có thể dẫn đến kết quả đầu ra không phù hợp.
(theo IFW)
Anh đầu tư ‘khủng’ vào AI, triển khai 5 dự án lượng tử mới
Anh sẽ đầu tư 'khủng' nhằm phát triển máy tính lượng tử cỡ lớn và hỗ trợ các côn
g ngh??? mới, bao gồm việc chế tạo siêu máy tính Isambard AI mạnh nhất trong nước.
Thắt lưng AI GUIDi thay thế gậy dò đường cho người khiếm thị
Bằng cách ứng dụng côn
g ngh??? AI, chiếc thắt lưng côn
g ngh??? cao sẽ trở thành bạn đồng hành của người khiếm thị, thay thế cho những chiếc gậy vướng víu.
Liên minh AI nguồn mở của những gã khổng lồ côn
g ngh??? sẽ cạnh tranh với OpenAI
Meta, IBM, Intel, Sony, Dell và các công ty côn
g ngh??? khác mới tuyên bố thành lập Liên minh AI nguồn mở nhằm phát triển côn
g ngh??? có trách nhiệm, trọng tâm là các biện pháp an toàn.
Hướng đi riêng trong phát triển chatbot AI ở Trung Quốc
Tận dụng thị trường mà OpenAI và Google còn để ngỏ, các công ty côn
g ngh??? Trung Quốc đang kiếm được lợi nhuận đáng kể từ xu hướng cá nhân hóa trong phát triển chatbot AI.
Nguồn bài viết : EVO Trực Tuyến