Liên hệ

Bài nổi bật

Hacker lấy dữ liệu từ đối tác của OpenAI, người dùng ChatGPT có bị ảnh hưởng?

OpenAI cảnh báo các nhà phát triển hãy cảnh giác với các cuộc tấn công lừa đảo sau khi hacker đánh cắp dữ liệu từ đối tác phân tích của mình.

Hôm 27.11, OpenAI cho biết một vụ vi phạm an ninh hồi đầu tháng này tại nền tảng phân tích web Mixpanel có thể đã gồm cả thông tin hồ sơ người dùng nền tảng nhà phát triển của họ.

Theo OpenAI, thông tin bị ảnh hưởng có thể gồm cả “một lượng nhỏ dữ liệu phân tích”, chẳng hạn tên, địa chỉ email và vị trí gần đúng của một số người dùng API (giao diện lập trình ứng dụng).

Công ty khởi nghiệp AI số 1 thế giới khẳng định hệ thống của họ không bị xâm nhập và người dùng ChatGPT không bị ảnh hưởng, đồng thời nhấn mạnh rằng mật khẩu, thông tin thanh toán, nội dung trò chuyện hoặc các yêu cầu gửi đến API không bị lộ.

Tuy vậy, OpenAI cảnh báo rằng dữ liệu rò rỉ có thể bị lợi dụng để nhắm mục tiêu các nhà phát triển bằng các cuộc tấn công lừa đảo và khuyến cáo họ “hãy thận trọng với các email hoặc tin nhắn bất ngờ”.

Jake Moore, cố vấn an ninh mạng toàn cầu của hãng bảo mật ESET, nói với trang Insider rằng dù dữ liệu lộ ra “có độ nhạy cảm thấp”, nó vẫn có thể được kết hợp để “tạo ra các tin nhắn lừa đảo trông rất thuyết phục”.

Jen Taylor, Giám đốc điều hành Mixpanel, cho biết Mixpanel đang liên hệ với tất cả khách hàng bị ảnh hưởng và làm việc với cơ quan thực thi pháp luật liên quan đến vụ tấn công mạng.

Mixpanel tiết lộ họ có hơn 11.000 khách hàng doanh nghiệp. Công ty có trụ sở tại thành phố San Francisco (Mỹ) nói rằng vụ xâm nhập vào hệ thống của họ bắt nguồn từ một cuộc tấn công smishing được phát hiện vào ngày 8.11.

Smishing là hình thức lừa đảo qua tin nhắn SMS, trong đó kẻ tấn công dùng tin giả để dụ nạn nhân tiết lộ thông tin cá nhân hoặc tải về phần mềm độc hại.

Hai công ty không tiết lộ có bao nhiêu người bị ảnh hưởng trong vụ đánh cắp dữ liệu.

OpenAI cho biết hệ thống của công ty không bị xâm phạm – Ảnh: Getty Images

OpenAI trở thành mục tiêu của hacker sau khi nổi tiếng

Sau khi phát hành ChatGPT hồi tháng 11.2022, OpenAI trỗi dậy nhanh chóng để trở thành công ty khởi nghiệp AI giá trị nhất thế giới (500 tỉ USD). Điều đó khiến OpenAI trở thành mục tiêu của hacker.

Năm ngoái, tờ The New York Times đưa tin một hacker vào 2023 đã truy cập hệ thống nhắn tin nội bộ của OpenAI và đánh cắp dữ liệu liên quan đến công nghệ AI tiên tiến.

Theo hãng tin Reuters, OpenAI đã thông báo với toàn bộ nhân viên vụ hack trong cuộc họp nội bộ hồi tháng 4.2023 và cũng báo cáo với hội đồng quản trị công ty. Tuy nhiên, OpenAI đã quyết định không công khai vụ việc, nghĩa là công chúng và khách hàng bên ngoài không được biết về vụ hack. Lý do được đưa ra bởi không có dữ liệu khách hàng hay đối tác nào bị đánh cắp.

Ngoài ra, các lãnh đạo của OpenAI cho rằng hacker là cá nhân riêng lẻ, không phải hacker liên hệ với chính phủ nước ngoài, nên vụ việc không bị coi là mối đe dọa an ninh quốc gia. Do đó, công ty không thông báo với các cơ quan thực thi pháp luật liên bang Mỹ.

Dù hacker không tiếp cận trực tiếp hệ thống chứa AI, việc thu thập được “chi tiết thiết kế AI” và nội dung thảo luận từ diễn đàn nội bộ vẫn được xem là nghiêm trọng. Vụ hack đặt ra nguy cơ rằng những thông tin kỹ thuật, ý tưởng phát triển hay kiến trúc thiết kế AI của OpenAI có thể bị lộ, sao chép hoặc bị bên thứ ba lợi dụng.

Sự việc đã dấy lên lo ngại lớn trong nội bộ OpenAI cũng như cộng đồng, đặc biệt trong bối cảnh các công ty AI ngày càng trở thành mục tiêu hấp dẫn cho hacker hoặc các nhóm tìm kiếm lợi ích thông qua gián điệp công nghệ. Một số nhân viên OpenAI bày tỏ lo ngại rằng quyết định giữ bí mật này có thể là một sai lầm, vì làm giảm minh bạch và ảnh hưởng tới niềm tin từ bên ngoài.

Hồi tháng 6.2024, nhà nghiên cứu Leopold Aschenbrenner cho biết anh bị sa thải sau khi nêu quan ngại về an ninh của OpenAI và nguy cơ gián điệp từ Trung Quốc.

Leopold Aschenbrenner từng làm việc trong nhóm superalignment của OpenAI, được giao nhiệm vụ giảm thiểu rủi ro AI. Leopold Aschenbrenner cho biết bị OpenAI sa thải vì làm rò rỉ thông tin về sự sẵn sàng của công ty với AI tổng quát (AGI). AGI là một dạng AI có khả năng hiểu, học hỏi và áp dụng kiến thức ở mức độ tương đương hoặc hơn con người.

Superalignment đề cập đến việc đảm bảo rằng các hệ thống AI tiên tiến, đặc biệt là AGI, hoạt động theo cách hoàn toàn phù hợp với lợi ích của con người và không gây hại. Công việc liên quan đến superalignment gồm phát triển các phương pháp để đảm bảo rằng những mục tiêu và hành động của AI không chỉ phù hợp với các giá trị và mong muốn của con người, mà còn có thể đối phó với tình huống phức tạp, không lường trước được.

Leopold Aschenbrenner khẳng định đã soạn một bản ghi nhớ nội bộ gửi lên hội đồng quản trị OpenAI, trong đó cảnh báo rằng các biện pháp an ninh hiện tại của công ty là “khá tệ” trong việc bảo vệ mô hình AI và các bí mật quan trọng của thuật toán khỏi nguy cơ bị đánh cắp bởi các thế lực nước ngoài.

Anh lo ngại rằng, nếu OpenAI không bảo vệ tốt, những bí mật công nghệ cao có thể bị sao chép hoặc gián điệp công nghiệp, đặc biệt là từ các quốc gia đối thủ.

Theo Leopold Aschenbrenner, việc chia sẻ bản ghi nhớ nội bộ lên hội đồng quản trị xuất phát từ một vụ “sự cố an ninh lớn” mà anh cho rằng OpenAI đã giữ kín với đa số nhân viên. Sau vụ này, Aschenbrenner quyết định cảnh báo OpenAI về rủi ro dài hạn cho an ninh AI.

Leopold Aschenbrenner kể rằng, sau khi gửi bản ghi nhớ nội bộ và chia sẻ mối lo ngại, anh bị bộ phận nhân sự chính thức cảnh cáo vì “bày tỏ quan điểm rằng lo ngại về việc gián điệp từ Trung Quốc là mang tính phân biệt chủng tộc và không mang tính xây dựng”.

Một thời gian sau đó, OpenAI sa thải Aschenbrenner với lý do chính thức là “anh làm rò rỉ thông tin nhạy cảm”. Cụ thể, Aschenbrenner đã chia sẻ một tài liệu nội bộ về an ninh và an toàn AI cho ba nhà nghiên cứu bên ngoài để lấy phản hồi. Theo OpenAI, đó là hành vi vi phạm nội quy bảo mật.

Tuy nhiên, Leopold Aschenbrenner phản bác, nói rằng tài liệu này không chứa bí mật trọng yếu và việc chia sẻ để lấy phản hồi từ cộng đồng nghiên cứu bên ngoài từng được chấp nhận trong quá khứ.

Leopold Aschenbrenner cho rằng OpenAI có thể tìm lý do để sa thải anh. Lý do vì Aschenbrenner là một trong số ít nhân viên từ chối ký vào lá thư kêu gọi phục chức cho Giám đốc điều hành Sam Altman sau khi hội đồng quản trị cũ của OpenAI sa thải ông một thời gian ngắn vào tháng 11.2023.

Theo Sơn Vân / Một thế Giới

Xem thêm:

Continue Reading

More in Bài nổi bật

Advertisement
Advertisement
To Top