تحقیقات جدید نقاط ضعف پلتفرم های MLOps را برجسته می کند
انتشار: دی 18، 1403
بروزرسانی: 26 خرداد 1404

تحقیقات جدید نقاط ضعف پلتفرم های MLOps را برجسته می کند


محققان امنیتی سناریوهای حمله متعددی را شناسایی کرده اند که پلتفرم های MLOps مانند Azure Ma،e Learning (Azure ML)، BigML، Google Cloud Vertex AI و غیره را هدف قرار می دهند.

بر اساس یک مقاله تحقیقاتی جدید منتشر شده توسط اطلاعات امنیتی، Azure ML می تواند از طریق فیشینگ توکن ماشینی به خطر بیفتد، جایی که مهاجمان توکن های دسترسی را می دزدند و مدل های ذخیره شده در پلتفرم را است،اج می کنند. این بردار حمله از آسیب پذیری ها در مدیریت هویت سوء استفاده می کند و اجازه دسترسی غیرمجاز به دارایی های یادگیری ماشین (ML) را می دهد.

کاربران BigML با تهدیدهایی از سوی کلیدهای API در معرض قرار گرفته در مخازن عمومی مواجه هستند که ممکن است به مجموعه داده های خصوصی دسترسی غیرمجاز بدهد. کلیدهای API اغلب فاقد خط مشی های انقضا هستند و در صورت عدم چرخش مکرر، آنها را به خطری ثابت تبدیل می کند.

Google Cloud Vertex AI در برابر حملاتی که شامل فیشینگ و افزایش امتیازات می شود آسیب پذیر است و به مهاجمان اجازه می دهد تا توکن های GCloud را است،اج کنند و به دارایی های یادگیری ماشین حساس دسترسی داشته باشند. مهاجمان می توانند از اعتبارنامه های به خطر افتاده برای انجام حرکات جانبی در زیرساخت ابری سازمان استفاده کنند.

درباره امنیت یادگیری ماشین بیشتر بخو،د: تحقیقات جدید خطرات امنیتی را در افزونه های ChatGPT نشان می دهد

اقدامات حفاظتی

کارشناسان امنیتی چندین اقدام پیشگیرانه را برای هر پلتفرم توصیه می کنند.

  • برای Azure ML، بهترین روش ها شامل فعال ، احراز هویت چند عاملی (MFA)، جداسازی شبکه، رمزگذاری داده ها و اجرای کنترل دسترسی مبتنی بر نقش (RBAC) است.
  • برای BigML، کاربران باید MFA را پیاده سازی کنند، اعتبارنامه ها را به طور مکرر بچرخانند و کنترل های دسترسی دقیق را برای محدود ، قرار گرفتن در معرض داده ها اجرا کنند.
  • برای Google Cloud Vertex AI، توصیه می شود از اصل حداقل امتیاز پیروی کنید، آدرس های IP خارجی را غیرفعال کنید، گزارش های حسابرسی دقیق را فعال کنید و مجوزهای حساب سرویس را کاهش دهید.

از آنجایی که شرکت ها به طور فزاینده ای برای عملیات های حیاتی به فناوری های هوش مصنوعی متکی هستند، ایمن ، پلتفرم های MLOps در برابر تهدیدهایی مانند سرقت داده، مدل کاوی و مسمومیت مجموعه داده ها ضروری شده است. پیاده سازی پیکربندی های امنیتی فعال می تواند دفاع را تقویت کرده و از دارایی های حساس هوش مصنوعی در برابر تهدیدات سایبری در حال تکامل محافظت کند.

نتایج گسترده تر

تحقیقات اطلاعات امنیتی آسیب پذیری هایی را برجسته کرد که بر طیف گسترده ای از پلتفرم های MLOps از جمله Amazon SageMaker، JFrog ML (Qwak سابق)، Domino Enterprise AI، MLOps Platform، Databricks، DataRobot، W&B (Weights & Biases)، Valohai و TrueFoundry تأثیر می گذارد.


منبع: https://www.infosecurity-magazine.com/news/vulnerabilities-mlops-platforms/