AI startups leak sensitive credentials on GitHub, exposing models and training data

AI startups leak sensitive credentials on GitHub, exposing models and training data


Conformità e governance

Secondo i risultati di Wiz, le chiavi API esposte possono degenerare in compromissioni su vasta scala negli ecosistemi AI Sakshi Groverresponsabile della ricerca senior per IDC Asia Pacific Cybersecurity Services. “Le credenziali rubate possono essere utilizzate per manipolare il comportamento del modello o estrarre dati di addestramento, minando la fiducia nei sistemi implementati”.

Grover ha osservato che tali esposizioni sono spesso legate al modo in cui operano gli ambienti di sviluppo dell’intelligenza artificiale. “I progetti di intelligenza artificiale spesso operano in ambienti poco governati e guidati dalla sperimentazione, in cui notebook, modelli pre-addestrati e repository vengono condivisi frequentemente, lasciando i segreti non scansionati o non ruotati”, ha aggiunto Grover.

Ha fatto riferimento ai dati dell’Asia/Pacific Security Study di IDC, che hanno mostrato che il 50% delle aziende nella sola APAC prevede di investire nella sicurezza delle API quando selezionano i fornitori CNAPP, riflettendo come le API esposte siano diventate un importante vettore di attacco.

Con le autorità di regolamentazione che intensificano la loro attenzione sulla sicurezza dell’IA e sulla protezione dei dati, è probabile che la gestione dei segreti e la governance delle API diventino elementi verificabili dei quadri emergenti di conformità dell’IA, ha affermato Grover.

Related posts

Leave a Comment