Wir freuen uns, Transform 2022 am 19. Juli persönlich und vom 20. Juli bis 3. August virtuell zu veranstalten. Treffen Sie führende KI- und Datenexperten zu aufschlussreichen Gesprächen und interessanten Networking-Möglichkeiten. Erfahren Sie mehr über Transform 2022

KI ist eine schnell wachsende Technologie, die viele Vorteile für die Gesellschaft mit sich bringt. Wie bei allen neuen Technologien stellt jedoch auch der Missbrauch ein potenzielles Risiko dar. Einer der beunruhigendsten potenziellen Missbräuche von KI findet sich in Form von feindlichen KI-Angriffen.

Bei einem feindlichen KI-Angriff wird die KI eingesetzt, um ein anderes KI-System böswillig zu manipulieren oder zu täuschen. Die meisten KI-Programme lernen, passen sich an und entwickeln sich durch verhaltensbasiertes Lernen weiter. Dies macht sie anfällig für Angriffe, da jeder einem KI-Algorithmus böswillige Handlungen beibringen kann, was letztlich zu schädlichen Ergebnissen führt. Cyberkriminelle und Bedrohungsakteure können diese Schwachstelle für böswillige Zwecke und Absichten ausnutzen.

Obwohl die meisten Angriffe bisher von Forschern und in Labors durchgeführt wurden, geben sie zunehmend Anlass zur Sorge. Das Auftreten eines feindlichen Angriffs auf KI oder einen Algorithmus für maschinelles Lernen weist auf einen tiefen Riss im KI-Mechanismus hin. Das Vorhandensein solcher Schwachstellen in KI-Systemen kann das Wachstum und die Entwicklung der KI bremsen und ein erhebliches Sicherheitsrisiko für Menschen darstellen, die KI-integrierte Systeme nutzen. Um das Potenzial von KI-Systemen und -Algorithmen voll ausschöpfen zu können, ist es daher entscheidend, KI-Angriffe zu verstehen und zu entschärfen.

Verständnis von KI-Angriffen

Obwohl die moderne Welt, in der wir heute leben, von KI durchdrungen ist, hat sie die Welt noch nicht vollständig erobert. Seit ihrem Aufkommen ist die KI mit ethischer Kritik konfrontiert worden, was zu einem allgemeinen Zögern bei der vollständigen Übernahme der KI geführt hat. Die wachsende Besorgnis, dass die Schwachstellen in maschinellen Lernmodellen und KI-Algorithmen zu böswilligen Zwecken genutzt werden können, ist jedoch ein massives Hindernis für das Wachstum von KI/ML.

Die grundlegenden Parallelen eines feindlichen Angriffs sind im Grunde dieselben: Manipulation eines KI-Algorithmus oder eines ML-Modells, um bösartige Ergebnisse zu erzielen. Ein feindlicher Angriff beinhaltet jedoch in der Regel die folgenden zwei Dinge:

  • Vergiftung: Das ML-Modell wird mit ungenauen oder falsch interpretierten Daten gefüttert, um es zu einer fehlerhaften Vorhersage zu verleiten.
  • Verseuchung: Das ML-Modell wird mit böswillig erstellten Daten gefüttert, um ein bereits trainiertes Modell dazu zu verleiten, böswillige Aktionen und Vorhersagen durchzuführen.

Bei beiden Methoden ist es sehr wahrscheinlich, dass die Kontamination zu einem weit verbreiteten Problem wird. Da bei dieser Technik ein böswilliger Akteur negative Informationen einspeist, können diese Aktionen mit Hilfe anderer Angriffe schnell zu einem weit verbreiteten Problem werden. Im Gegensatz dazu scheint es einfach zu sein, Vergiftungen zu kontrollieren und zu verhindern, da die Bereitstellung eines Trainingsdatensatzes einen Insiderjob erfordern würde. Es ist möglich, solche Insider-Bedrohungen mit einem Zero-Trust-Sicherheitsmodell und anderen Netzwerksicherheitsprotokollen zu verhindern.

Der Schutz eines Unternehmens vor gegnerischen Bedrohungen wird jedoch eine schwierige Aufgabe sein. Während sich typische Online-Sicherheitsprobleme mit verschiedenen Tools wie Proxys für Privatanwender, VPNs oder sogar Anti-Malware-Software leicht entschärfen lassen, könnten KI-Bedrohungen diese Schwachstellen überwinden, so dass diese Tools zu primitiv sind, um Sicherheit zu gewährleisten.

Inwiefern ist KI eine Bedrohung?

KI ist bereits ein gut integrierter, wichtiger Bestandteil kritischer Bereiche wie Finanzen, Gesundheitswesen und Verkehr. Sicherheity Probleme in diesen Bereichen können für das Leben aller Menschen besonders gefährlich sein. Da KI gut in das menschliche Leben integriert ist, können die Auswirkungen von KI-Bedrohungen massiven Schaden anrichten.

In einem Bericht des Office of the Director of National Security aus dem Jahr 2018 wurden mehrere Bedrohungen durch feindliches maschinelles Lernen aufgezeigt. Unter den im Bericht aufgelisteten Bedrohungen war eine der größten Sorgen das Potenzial dieser Angriffe, Computer-Vision-Algorithmen zu kompromittieren.

Die Forschung ist bisher auf mehrere Beispiele für die Positionierung von KI gestoßen. In einer solchen Studie fügten Forscher dem Bild eines Pandas kleine, für das bloße Auge unsichtbare Änderungen oder „Störungen“ hinzu. Die Änderungen veranlassten den ML-Algorithmus, das Bild des Pandas als das eines Gibbons zu identifizieren.

In einer anderen Studie wird die Möglichkeit einer KI-Kontamination hervorgehoben, bei der Angreifer die Gesichtserkennungskameras mit Infrarotlicht täuschten. Dadurch konnten diese Angreifer die genaue Erkennung abschwächen und sich als andere Personen ausgeben.

Darüber hinaus sind gegnerische Angriffe auch bei der Manipulation von E-Mail-Spamfiltern zu beobachten. Da E-Mail-Spamfilter-Tools Spam-E-Mails erfolgreich filtern, indem sie bestimmte Wörter verfolgen, können Angreifer diese Tools manipulieren, indem sie akzeptable Wörter und Phrasen verwenden und sich so Zugang zum Posteingang des Empfängers verschaffen. Anhand dieser Beispiele und Untersuchungen lassen sich die Auswirkungen von KI-Angriffen auf die Cyber-Bedrohungslandschaft leicht erkennen, z. B:

  • Angreifende KI eröffnet die Möglichkeit, KI-basierte Sicherheitstools wie Phishing-Filter unbrauchbar zu machen.
  • IoT-Geräte sind KI-basiert. Angriffe auf sie könnten zu groß angelegten Hacking-Versuchen führen.
  • KI-Tools neigen dazu, persönliche Informationen zu sammeln. Angreifer können diese Tools so manipulieren, dass sie die gesammelten persönlichen Daten preisgeben.
  • KI ist ein Teil des Verteidigungssystems. Angriffe auf Verteidigungsinstrumente können die nationale Sicherheit gefährden.
  • Sie können zu einer neuen Vielfalt von Angriffen führen, die unentdeckt bleiben.

Es wird immer wichtiger, die Sicherheit und Wachsamkeit gegenüber KI-Angriffen aufrechtzuerhalten.

Gibt es eine Vorbeugung?

In Anbetracht des Potenzials der KI-Entwicklung, das Leben der Menschen überschaubarer und viel anspruchsvoller zu machen, arbeiten Forscher bereits an verschiedenen Methoden zum Schutz von Systemen vor feindlicher KI. Eine dieser Methoden ist das gegnerische Training, bei dem der Algorithmus des maschinellen Lernens im Voraus gegen Positionierungs- und Kontaminationsversuche trainiert wird, indem er mit möglichen Störungen gefüttert wird.

Im Falle von Algorithmen für das maschinelle Sehen werden die Algorithmen mit Bildern und deren Veränderungen vordisponiert. Ein Algorithmus, der ein Stoppschild erkennen soll, hat beispielsweise alle möglichen Veränderungen des Stoppschilds gelernt, wie Aufkleber, Graffiti oder sogar fehlende Buchstaben. Der Algorithmus wird die Phänomene trotz der Manipulationen durch den Angreifer korrekt erkennen. Diese Methode ist jedoch nicht narrensicher, da es unmöglich ist, alle möglichen gegnerischen Angriffsiterationen zu identifizieren.

Der Algorithmus verwendet nicht-intrusive Bildqualitätsmerkmale, um zwischen legitimen und unerwünschten Eingaben zu unterscheiden. Die Technik kann potenziell sicherstellen, dass gegnerische maschinelle Lernimporteure und Abwandlungen neutralisiert werden, bevor sie die Klassifizierungsinformationen erreichen. Eine weitere solche Methode umfasst die Vorverarbeitung und Entrauschung, wdie automatisch mögliche Störgeräusche aus der Eingabe entfernt.

Fazit

Trotz ihrer weit verbreiteten Anwendung in der modernen Welt hat die KI noch nicht die Oberhand gewonnen. Obwohl maschinelles Lernen und KI es geschafft haben, sich auszuweiten und sogar einige Bereiche unseres täglichen Lebens zu dominieren, befinden sie sich noch immer in einem erheblichen Entwicklungsstadium. Solange die Forscher das Potenzial von KI und maschinellem Lernen nicht vollständig erkannt haben, wird es eine klaffende Lücke bei der Eindämmung negativer Bedrohungen durch KI-Technologie geben. Die Forschung zu diesem Thema ist jedoch noch nicht abgeschlossen, vor allem weil sie für die Entwicklung und Einführung von KI entscheidend ist.

Waqas ist ein Journalist und Autor im Bereich Cybersicherheit.

DataDecisionMakers

Willkommen in der VentureBeat-Community!

DataDecisionMakers ist ein Ort, an dem Experten, einschließlich der Techniker, die mit Daten arbeiten, datenbezogene Erkenntnisse und Innovationen austauschen können.

Wenn Sie über bahnbrechende Ideen und aktuelle Informationen, bewährte Verfahren und die Zukunft von Daten und Datentechnologie lesen möchten, werden Sie Mitglied bei DataDecisionMakers.

Vielleicht können Sie sogar einen eigenen Artikel beisteuern!

Lesen Sie mehr von DataDecisionMakers



Quelle

Wir freuen uns, Transform 2022 am 19. Juli persönlich und vom 20. Juli bis 3. August virtuell zu veranstalten. Treffen Sie führende KI- und Datenexperten zu aufschlussreichen Gesprächen und interessanten Networking-Möglichkeiten. Erfahren Sie mehr über Transform 2022

KI ist eine schnell wachsende Technologie, die viele Vorteile für die Gesellschaft mit sich bringt. Wie bei allen neuen Technologien stellt jedoch auch der Missbrauch ein potenzielles Risiko dar. Einer der beunruhigendsten potenziellen Missbräuche von KI findet sich in Form von feindlichen KI-Angriffen.

Bei einem feindlichen KI-Angriff wird die KI eingesetzt, um ein anderes KI-System böswillig zu manipulieren oder zu täuschen. Die meisten KI-Programme lernen, passen sich an und entwickeln sich durch verhaltensbasiertes Lernen weiter. Dies macht sie anfällig für Angriffe, da jeder einem KI-Algorithmus böswillige Handlungen beibringen kann, was letztlich zu schädlichen Ergebnissen führt. Cyberkriminelle und Bedrohungsakteure können diese Schwachstelle für böswillige Zwecke und Absichten ausnutzen.

Obwohl die meisten Angriffe bisher von Forschern und in Labors durchgeführt wurden, geben sie zunehmend Anlass zur Sorge. Das Auftreten eines feindlichen Angriffs auf KI oder einen Algorithmus für maschinelles Lernen weist auf einen tiefen Riss im KI-Mechanismus hin. Das Vorhandensein solcher Schwachstellen in KI-Systemen kann das Wachstum und die Entwicklung der KI bremsen und ein erhebliches Sicherheitsrisiko für Menschen darstellen, die KI-integrierte Systeme nutzen. Um das Potenzial von KI-Systemen und -Algorithmen voll ausschöpfen zu können, ist es daher entscheidend, KI-Angriffe zu verstehen und zu entschärfen.

Verständnis von KI-Angriffen

Obwohl die moderne Welt, in der wir heute leben, von KI durchdrungen ist, hat sie die Welt noch nicht vollständig erobert. Seit ihrem Aufkommen ist die KI mit ethischer Kritik konfrontiert worden, was zu einem allgemeinen Zögern bei der vollständigen Übernahme der KI geführt hat. Die wachsende Besorgnis, dass die Schwachstellen in maschinellen Lernmodellen und KI-Algorithmen zu böswilligen Zwecken genutzt werden können, ist jedoch ein massives Hindernis für das Wachstum von KI/ML.

Die grundlegenden Parallelen eines feindlichen Angriffs sind im Grunde dieselben: Manipulation eines KI-Algorithmus oder eines ML-Modells, um bösartige Ergebnisse zu erzielen. Allerdings beinhaltet ein bösartiger Angriff in der Regel die tdie folgenden Dinge:

  • Vergiftung: Das ML-Modell wird mit ungenauen oder falsch interpretierten Daten gefüttert, um es zu einer fehlerhaften Vorhersage zu verleiten.
  • Verseuchung: Das ML-Modell wird mit böswillig erstellten Daten gefüttert, um ein bereits trainiertes Modell dazu zu verleiten, böswillige Aktionen und Vorhersagen durchzuführen.

Bei beiden Methoden ist es sehr wahrscheinlich, dass die Kontamination zu einem weit verbreiteten Problem wird. Da bei dieser Technik ein böswilliger Akteur negative Informationen einspeist, können diese Aktionen mit Hilfe anderer Angriffe schnell zu einem weit verbreiteten Problem werden. Im Gegensatz dazu scheint es einfach zu sein, Vergiftungen zu kontrollieren und zu verhindern, da die Bereitstellung eines Trainingsdatensatzes einen Insiderjob erfordern würde. Es ist möglich, solche Insider-Bedrohungen mit einem Zero-Trust-Sicherheitsmodell und anderen Netzwerksicherheitsprotokollen zu verhindern.

Der Schutz eines Unternehmens vor gegnerischen Bedrohungen wird jedoch eine schwierige Aufgabe sein. Während sich typische Online-Sicherheitsprobleme mit verschiedenen Tools wie Proxys für Privatanwender, VPNs oder sogar Anti-Malware-Software leicht entschärfen lassen, könnten KI-Bedrohungen diese Schwachstellen überwinden, so dass diese Tools zu primitiv sind, um Sicherheit zu gewährleisten.

Inwiefern ist KI eine Bedrohung?

KI ist bereits ein gut integrierter, wichtiger Bestandteil kritischer Bereiche wie Finanzen, Gesundheitswesen und Verkehr. Sicherheitsprobleme in diesen Bereichen können eine besondere Gefahr für das Leben aller Menschen darstellen. Da KI gut in das menschliche Leben integriert ist, können die Auswirkungen von KI-Bedrohungen massiven Schaden anrichten.

Im Jahr 2018 wurden in einem Bericht des Office of the Director of National Security mehrere Bedrohungen für das maschinelle Lernen aufgezeigt. Unter den im Bericht aufgelisteten Bedrohungen war eine der größten Sorgen das Potenzial dieser Angriffe, Computer-Vision-Algorithmen zu kompromittieren.

Die Forschung ist bisher auf mehrere Beispiele für die Positionierung von KI gestoßen. In einer solchen Studie fügten Forscher dem Bild eines Pandas kleine, für das bloße Auge unsichtbare Änderungen oder „Störungen“ hinzu. Die Änderungen veranlassten den ML-Algorithmus, das Bild des Pandas als das eines Gibbons zu identifizieren.

In einer anderen Studie wird die Möglichkeit einer KI-Kontamination aufgezeigt, bei der Angreifer die Gesichtserkennungskameras mit Infrarotlicht überlisten. Dadurch konnten diese Angreifer die genaue Erkennung abschwächen und sich als andere Personen ausgeben.

Darüber hinaus sind gegnerische Angriffe auch bei der Manipulation von E-Mail-Spamfiltern zu beobachten. Da E-Mail-Spamfilter-Tools Spam-E-Mails erfolgreich filtern, indem sie bestimmte Wörter verfolgen, können Angreifer diese Tools manipulieren, indem sie akzeptable Wörter und Phrasen verwenden und sich so Zugang zum Posteingang des Empfängers verschaffen. Anhand dieser Beispiele und Untersuchungen lassen sich die Auswirkungen von KI-Angriffen auf die Cyber-Bedrohungslandschaft leicht erkennen, z. B:

  • Angreifende KI eröffnet die Möglichkeit, KI-basierte Sicherheitstools wie Phishing-Filter unbrauchbar zu machen.
  • IoT-Geräte sind KI-basiert. Angriffe auf sie könnten zu groß angelegten Hacking-Versuchen führen.
  • KI-Tools neigen dazu, persönliche Informationen zu sammeln. Angreifer können diese Tools so manipulieren, dass sie die gesammelten persönlichen Daten preisgeben.
  • KI ist ein Teil des Verteidigungssystems. Angriffe auf Verteidigungsinstrumente können die nationale Sicherheit gefährden.
  • Sie können zu einer neuen Vielfalt von Angriffen führen, die unentdeckt bleiben.

Es wird immer wichtiger, die Sicherheit und Wachsamkeit aufrechtzuerhalten.

e gegen gegnerische KI-Angriffe.

Gibt es eine Vorbeugung?

In Anbetracht des Potenzials der KI-Entwicklung, das Leben der Menschen überschaubarer und viel anspruchsvoller zu machen, arbeiten Forscher bereits an verschiedenen Methoden zum Schutz von Systemen gegen feindliche KI. Eine dieser Methoden ist das gegnerische Training, bei dem der Algorithmus des maschinellen Lernens im Voraus gegen Positionierungs- und Kontaminationsversuche trainiert wird, indem er mit möglichen Störungen gefüttert wird.

Im Falle von Algorithmen für das maschinelle Sehen werden die Algorithmen mit Bildern und deren Veränderungen vordisponiert. Ein Algorithmus, der ein Stoppschild erkennen soll, hat beispielsweise alle möglichen Veränderungen des Stoppschilds gelernt, wie Aufkleber, Graffiti oder sogar fehlende Buchstaben. Der Algorithmus wird die Phänomene trotz der Manipulationen durch den Angreifer korrekt erkennen. Diese Methode ist jedoch nicht narrensicher, da es unmöglich ist, alle möglichen gegnerischen Angriffsiterationen zu identifizieren.

Der Algorithmus verwendet nicht-intrusive Bildqualitätsmerkmale, um zwischen legitimen und unerwünschten Eingaben zu unterscheiden. Die Technik kann potenziell sicherstellen, dass gegnerische maschinelle Lernimporteure und Abwandlungen neutralisiert werden, bevor sie die Klassifizierungsinformationen erreichen. Eine weitere Methode ist die Vorverarbeitung und Rauschunterdrückung, die automatisch mögliches unerwünschtes Rauschen aus den Eingaben entfernt.

Schlussfolgerung

Trotz ihrer weit verbreiteten Verwendung in der modernen Welt hat die KI noch nicht die Oberhand gewonnen. Obwohl maschinelles Lernen und künstliche Intelligenz es geschafft haben, sich auszuweiten und sogar einige Bereiche unseres täglichen Lebens zu dominieren, befinden sie sich noch immer in einem erheblichen Entwicklungsstadium. Solange die Forscher das Potenzial von KI und maschinellem Lernen nicht vollständig erkannt haben, wird es eine klaffende Lücke bei der Eindämmung negativer Bedrohungen durch KI-Technologie geben. Die Forschung zu diesem Thema ist jedoch noch nicht abgeschlossen, vor allem weil sie für die Entwicklung und Einführung von KI von entscheidender Bedeutung ist.

Waqas ist ein Journalist und Autor im Bereich Cybersicherheit

.

DataDecisionMakers

Willkommen in der VentureBeat-Community!

DataDecisionMakers ist ein Ort, an dem Experten, einschließlich der Techniker, die mit Daten arbeiten, datenbezogene Erkenntnisse und Innovationen austauschen können.

Wenn Sie über bahnbrechende Ideen und aktuelle Informationen, bewährte Verfahren und die Zukunft von Daten und Datentechnologie lesen möchten, werden Sie Mitglied bei DataDecisionMakers.

Vielleicht können Sie sogar einen eigenen Artikel beisteuern!

Lesen Sie mehr von DataDecisionMakers



Weiterlesen: https://venturebeat.com/2022/04/03/adversarial-ai-and-the-dystopian-future-of-tech/