Microsoft hat ein Open-Source-Tool veröffentlicht, mit dem Entwickler die Sicherheit der Systeme für künstliche Intelligenz beurteilen können, an denen sie arbeiten. Es heißt Counterfit-Projekt und ist jetzt auf GitHub verfügbar.
Die Firma Redmond selbst hat Counterfit bereits verwendet, um ihre eigenen KI-Modelle im roten Team des Unternehmens zu testen. Darüber hinaus untersuchen andere Bereiche von Microsoft die Verwendung des Tools in der KI-Entwicklung.
Microsoft simuliert Cyberangriffe mit Counterfit
Nach Angaben von Microsoft zu GithubCounterfit verfügt über ein Befehlszeilentool und eine generische Automatisierungsebene zur Bewertung der Sicherheit maschineller Lernsysteme.
Auf diese Weise können Entwickler Cyberangriffe auf KI-Systeme simulieren, um die Sicherheit zu testen. Jeder kann das Tool herunterladen und über Azure Shell bereitstellen, um es im Browser oder lokal in einer Anaconda Python-Umgebung auszuführen.
“Unser Tool macht veröffentlichte Angriffsalgorithmen für die Sicherheitsgemeinschaft zugänglich und bietet eine erweiterbare Schnittstelle zum Erstellen, Verwalten und Starten von Angriffen auf KI-Modelle”, sagte Microsoft.
Das Tool ist mit Beispiel-Angriffsalgorithmen vorinstalliert. Darüber hinaus können Sicherheitsexperten die integrierte cmd2-Skript-Engine verwenden, um sich zu Testzwecken mit Counterfit von anderen vorhandenen Offensiv-Tools zu verbinden.
Laut ITPro hat Microsoft das Tool aus der Notwendigkeit heraus entwickelt, seine Systeme auf Schwachstellen zu untersuchen. Counterfit begann als Angriffsskripte, die geschrieben wurden, um einzelne KI-Modelle anzugreifen, und entwickelte sich allmählich zu einem Automatisierungstool für den Angriff auf mehrere Systeme.
Das Unternehmen hat nach eigenen Angaben mit mehreren seiner Partner, Kunden und Behörden zusammengearbeitet, um das Tool mit KI-Modellen in ihrer Umgebung zu testen.