Präsentiert von Defined.ai

Was bedeutet es, verantwortungsvolle, ethische KI zu entwickeln? Welche staatlichen Maßnahmen werden die Zukunft der KI prägen? Diskutieren Sie mit Melvin Greer von Intel, Noelle Silver von IBM und Daniela Braga von Defined.ai in dieser VB Live-Veranstaltung darüber, wie wir sicherstellen können, dass unsere KI-Zukunft eine gerechte ist.

Registrieren Sie sich gleich hier kostenlos.

Die Anwendungsfälle für künstliche Intelligenz werden immer zahlreicher, von zahlreichen Geschäftsanwendungen bis hin zu immer mehr Facetten des täglichen Lebens. In dem Maße, wie das Bewusstsein für KI zunimmt, wachsen auch die berechtigten Bedenken hinsichtlich der Fairness und der Leistungsfähigkeit von Algorithmen des maschinellen Lernens sowie der Auswirkungen von KI auf Privatsphäre, Sprache und Autonomie. In der Privatwirtschaft müssen sich Unternehmen mit der Frage auseinandersetzen, wie sie ethisch vertretbare KI entwickeln und einsetzen können, während in der öffentlichen Sphäre staatliche Maßnahmen ergriffen werden, um eine sichere und faire Nutzung von KI zu gewährleisten.

Wie sieht verantwortungsvolle und ethische KI aus? „Ethisch“ ist ein subjektiver Begriff, sagt Noelle Silver, Partner, AI and Analytics bei IBM, während Verantwortung oder Rechenschaftspflicht im Wesentlichen bedeutet, das Richtige zu tun, wenn es um die Implementierung von Software geht.

„Es geht weniger darum, was man als richtig oder falsch empfindet, sondern vielmehr darum, wie man für die Ergebnisse der Dinge, die man entwickelt, zur Rechenschaft gezogen wird“, sagt Silver. „Ich glaube, jedes Unternehmen kann sich in diese Richtung bewegen, unabhängig davon, wo es sich auf dem Spektrum der ethischen Aspekte seiner KI befindet.“

Die Rechenschaftspflicht für die Ergebnisse ist wichtig, stimmt Melvin Greer, Intel Fellow und Chief Data Scientist, Americas, zu, aber er weist darauf hin, dass es nicht darum geht, ob das System voreingenommen oder fair ist, sondern ob es das tut, was behauptet wird. Die Bedeutung der Transparenz von Datensätzen und der Testauswertung kann gar nicht hoch genug eingeschätzt werden. In diesem Zusammenhang liegt der Schwerpunkt oft auf den menschlichen Faktoren, wie partizipative Designtechniken, Multistate-Codierungsansätze und Human-in-the-Loop-Testmethoden, und nicht auf dem Gesamtbild.

„Keines dieser Verfahren ist wirklich ein Allheilmittel gegen die Voreingenommenheit, die Teil einer breiteren soziotechnischen Perspektive ist, die diese KI-Systeme mit gesellschaftlichen Werten verbindet“, sagt Greer. „Und ich denke, dass sich Experten im Bereich der verantwortungsvollen KI genau darauf konzentrieren wollen, um die Risiken der KI-Voreingenommenheit erfolgreich zu bewältigen, damit wir nicht nur ein System schaffen, das etwas tut, was behauptet wird, sondern etwas im Kontext einer breiteren Perspektive tut, die gesellschaftliche Normen und Moral anerkennt.“

Er fährt fort, die weitreichenden Konsequenzen zu erläutern, die sich ergeben, wenn die notwendigen Leitplanken nicht vorhanden sind, selbst wenn sie unbeabsichtigt sind.

Greer erklärt: „Es könnte darüber entscheiden, wo wir zur Schule gehen, wen wir heiraten, ob wir Arbeit finden, wo wir wohnen, welche Gesundheitsversorgung wir bekommen, welchen Zugang zu Lebensmitteln wir haben, welchen Zugang zu Kapital wir haben. Die Risiken sind hoch, und sie erfordern eine ernsthafte Bewertung der Art und Weise, wie wir sie umsetzen.

Ethische Leitplanken sind unabdingbar

Leider sind viele der Datenwissenschaftler und Experten aus den Geschäftsbereichen, die in der Lage sind, Modelle oder Algorithmen für das maschinelle Lernen zu entwerfen, zu entwickeln und zu implementieren, keine Ethiker von Beruf. Sie haben in der Regel weder in der Schule Ethik studiert, noch hatten sie die Möglichkeit, das Konzept des Hinterfragens bei der Produktentwicklung kennenzulernen. Sie wissen nicht, welche Fragen sie stellen sollen, oder können nicht erkennen, wofür sie in Bezug auf die Leistung oder die Absicht ihrer Modelle zur Rechenschaft gezogen werden können, undd die Daten, die zu ihrer Schulung verwendet werden, sagt Silver. Und Mitarbeiter, die in der Unternehmenshierarchie weiter unten stehen, neigen zu der Annahme, dass diese ethischen Fragen über ihrer Gehaltsklasse liegen.

„Da jetzt jeder Geschäftsbereich KI einsetzt, muss jeder von uns die Verantwortung dafür übernehmen, zu verstehen und zu rechtfertigen, warum wir diese Technologie einsetzen, in welchem Umfang sie genutzt wird und wie wir die Daten sammeln, die diese Vorhersagen ermöglichen“, sagt sie.

Greer weist auch darauf hin, dass alle Menschen ihre eigene Vorstellung davon entwickelt haben, was ethisch oder unethisch ist. Und wenn sie KI-Systeme entwickeln, bringen sie ihre eigene Auffassung von Ethik und ethischem Verhalten in das System ein – was mit den gesellschaftlichen Praktiken oder Werten, die wir propagieren wollen, übereinstimmen kann oder auch nicht.

Es ist von entscheidender Bedeutung, dass mehr Menschen aus den Sozialwissenschaften hinzugezogen werden, sagt Silver, und dass Datenwissenschaftler anfangen, über die menschliche Dynamik in der Beziehung zur KI nachzudenken, damit man am Ende nicht etwas baut, das einem Menschen schadet.

„Das ist letztlich der größte Fehler, wenn man eine KI entwickelt, die die Rechte einer Person verletzt, die Fähigkeit einer Person verletzt, etwas zu tun, wozu sie ein Recht gehabt hätte, aber die KI-Modelle haben sich versehentlich dagegen entschieden“, sagt sie. „Das ist etwas, womit die meisten Unternehmen zu kämpfen haben, nämlich wie man das gut macht.“

Implementierung von verantwortungsvoller und ethischer KI

Um den Weg zu ethischer KI zu beschreiten, braucht ein Unternehmen ein KI-Manifest, sagt Silver. Und die Führungskräfte müssen verstehen, was es bedeutet, ein datengesteuertes Unternehmen zu sein, und dann die Absicht haben, es verantwortungsvoll aufzubauen. Bei der Entwicklung einer KI-Lösung müssen Transparenz und Interpretierbarkeit der Modelle gewährleistet sein, damit auch Personen, die nicht unbedingt Datenwissenschaftler sind, verstehen können, wie die Modelle funktionieren.

Auch der Datenschutz ist wichtig, vor allem bei der Erstellung der richtigen Datensätze. Es ist kostspielig, dies verantwortungsbewusst zu tun, sagt Silver, und es ist kostspielig, sicherzustellen, dass alle Bevölkerungsgruppen in den Trainingsdaten repräsentiert oder zumindest empathisch erfasst sind. Damit tun sich viele Unternehmen schwer – aber es lohnt sich, denn es stellt sicher, dass die Software fair und gerecht ist und vermeidet potenzielle Rückschläge oder sogar Unternehmenskatastrophen, betont Silver. Ethische KI erfordert auch eine Feedback-Schleife, so dass jeder, der an den Modellen arbeitet, seine Hand heben kann, um auf Probleme oder Bedenken hinzuweisen.

Es ist auch notwendig, über das maschinelle Lernen und die technischen Fähigkeiten hinaus Transparenz und Verantwortung zu schaffen, um Voreingenommenheit zu beseitigen, und zu untersuchen, wie die Systeme geschaffen werden und welche Auswirkungen sie auf die Gesellschaft haben werden, selbst wenn sie oberflächlich betrachtet gut sind in dem, was sie tun. Der Einsatz von Algorithmen zur Verbrechensverhütung und -vorhersage hat sich beispielsweise als relativ erfolgreich erwiesen, was die Strafverfolgung anbelangt; gleichzeitig hatten sie aufgrund der Art und Weise, wie diese Algorithmen eingesetzt werden, unverhältnismäßig negative Auswirkungen auf einige gesellschaftliche Gruppen.

„Als Datenwissenschaftler kann ich Ihnen sagen, dass ich der KI und den Aussichten, sie für das Gute zu nutzen, positiv gegenüberstehe. Tatsache ist jedoch, dass die KI so zielgerichtet ist und in der Lage ist, auf unsere gesamte Gesellschaft überzugreifen, und wenn sie nicht so funktioniert, wie wir es uns wünschen, sind das Ausmaß des Schadens und die Geschwindigkeit, mit der er sich in der gesamten Gesellschaft fortsetzen kann, sehr groß und sehr folgenreich“, warnt Greer.

Für moWenn Sie wissen möchten, wie KI für das Gute eingesetzt wird, wie Sie Teil der breiteren Bemühungen um verantwortungsvolle und ethische KI sein können und wohin diese Bemühungen Unternehmen, Organisationen und die Gesellschaft insgesamt führen, sollten Sie diese VB Live-Veranstaltung nicht verpassen.

Verpassen Sie es nicht!

Melden Sie sich hier kostenlos an.

Die Teilnehmer werden lernen:

  • Wie man Voreingenommenheit aus den Daten heraushält, um faire und ethische KI zu gewährleisten
  • Wie interpretierbare KI die Transparenz fördert und die Haftung von Unternehmen reduziert
  • Wie die bevorstehende staatliche Regulierung die Art und Weise, wie wir KI entwickeln und implementieren, verändern wird
  • Wie die frühzeitige Einführung ethischer KI-Praktiken Ihnen helfen wird, Compliance-Probleme und Kosten zu vermeiden

Referenten:

  • Noelle Silver, Partner, KI und Analytik, IBM
  • Melvin Greer, Intel Fellow und leitender Datenwissenschaftler, Nord- und Südamerika
  • Daniela Braga, Gründerin und CEO, Defined.ai
  • Chris J. Preimesberger, Moderator, VentureBeat

Quelle

Präsentiert von Defined.ai

Was bedeutet es, verantwortungsvolle, ethische KI zu entwickeln? Welche staatlichen Maßnahmen werden die Zukunft der KI bestimmen? Diskutieren Sie mit Melvin Greer von Intel, Noelle Silver von IBM und Daniela Braga von Defined.ai in dieser VB Live-Veranstaltung, wie wir sicherstellen können, dass unsere KI-Zukunft eine gerechte ist.

Registrieren Sie sich gleich hier kostenlos.

Die Anwendungsfälle für künstliche Intelligenz werden immer zahlreicher, von zahlreichen Geschäftsanwendungen bis hin zu immer mehr Facetten des täglichen Lebens. In dem Maße, wie das Bewusstsein für KI zunimmt, wachsen auch die berechtigten Bedenken hinsichtlich der Fairness und der Leistungsfähigkeit von Algorithmen des maschinellen Lernens sowie der Auswirkungen von KI auf Privatsphäre, Sprache und Autonomie. In der Privatwirtschaft müssen sich Unternehmen mit der Frage auseinandersetzen, wie sie ethisch vertretbare KI entwickeln und einsetzen können, während in der öffentlichen Sphäre staatliche Maßnahmen ergriffen werden, um eine sichere und faire Nutzung von KI zu gewährleisten.

Wie sieht verantwortungsvolle und ethische KI aus? „Ethisch“ ist ein subjektiver Begriff, sagt Noelle Silver, Partner, AI and Analytics bei IBM, während Verantwortung oder Rechenschaftspflicht im Wesentlichen bedeutet, das Richtige zu tun, wenn es um die Implementierung von Software geht.

„Es geht weniger darum, was man als richtig oder falsch empfindet, sondern vielmehr darum, wie man für die Ergebnisse der Dinge, die man entwickelt, zur Rechenschaft gezogen wird“, sagt Silver. „Ich glaube, jedes Unternehmen kann sich in diese Richtung bewegen, unabhängig davon, wo es sich auf dem Spektrum der ethischen Aspekte seiner KI befindet.“

Die Rechenschaftspflicht für die Ergebnisse ist wichtig, stimmt Melvin Greer, Intel Fellow und Chief Data Scientist, Americas, zu, aber er weist darauf hin, dass es nicht darum geht, ob das System voreingenommen oder fair ist, sondern ob es das tut, was behauptet wird. Die Bedeutung der Transparenz von Datensätzen und der Testauswertung kann gar nicht hoch genug eingeschätzt werden. In diesem Zusammenhang liegt der Schwerpunkt oft auf den menschlichen Faktoren, wie partizipative Designtechniken, Multistate-Codierungsansätze und Human-in-the-Loop-Testmethoden, und nicht auf dem Gesamtbild.

„Keines dieser Verfahren ist wirklich ein Allheilmittel gegen die Voreingenommenheit, die Teil einer breiteren soziotechnischen Perspektive ist, die diese KI-Systeme mit gesellschaftlichen Werten verbindet“, sagt Greer. „Und ich denke, dass sich die Experten im Bereich der verantwortungsvollen KI auf diesen Punkt konzentrieren wollen, um die Risiken der KI-Voreingenommenheit erfolgreich zu bewältigen, so dass wir nicht nur ein System schaffen, das etwas tut. Es geht nicht darum, etwas zu tun, was behauptet wird, sondern etwas im Kontext einer breiteren Perspektive zu tun, die gesellschaftliche Normen und Moralvorstellungen anerkennt.“

Er fährt fort, die weitreichenden Folgen des Fehlens der notwendigen Leitplanken zu erläutern, selbst wenn diese unbeabsichtigt sind.

Greer erklärt: „Es könnte darüber entscheiden, wo wir zur Schule gehen, wen wir heiraten, ob wir Arbeit finden, wo wir wohnen, welche Gesundheitsversorgung wir bekommen, welchen Zugang zu Lebensmitteln wir haben, welchen Zugang zu Kapital wir haben. Die Risiken sind hoch, und sie erfordern eine ernsthafte Bewertung der Art und Weise, wie wir sie umsetzen.

Ethische Leitplanken sind unabdingbar

Leider sind viele der Datenwissenschaftler und Experten der Geschäftsbereiche, die in der Lage sind, Modelle oder Algorithmen für maschinelles Lernen zu entwerfen, zu erstellen und zu implementieren, keine Berufsethiker. Sie haben in der Regel weder in der Schule Ethik studiert, noch hatten sie die Möglichkeit, das Konzept des Hinterfragens bei der Produktentwicklung kennenzulernen. Sie wissen nicht, welche Fragen sie stellen sollen, oder können nicht erkennen, wofür sie in Bezug auf die Leistung oder die Absicht ihrer Modelle und der Daten, mit denen sie trainiert werden, zur Rechenschaft gezogen werden können, sagt Silver. Und Mitarbeiter, die in der Unternehmenshierarchie weiter unten stehen, neigen zu der Annahme, dass diese ethischen Fragen über ihrer Gehaltsklasse liegen.

„Da jetzt jeder Geschäftszweig KI einsetzt, muss jeder von uns die Verantwortung dafür übernehmen, zu verstehen und zu rechtfertigen, warum wir diese Technologie einsetzen, in welchem Umfang sie genutzt wird und wie wir die Daten sammeln, die diese Vorhersagen ermöglichen“, sagt sie.

Greer weist auch darauf hin, dass alle Menschen ihre eigene Vorstellung davon entwickelt haben, was ethisch oder unethisch ist. Und wenn sie KI-Systeme entwickeln, bringen sie ihre eigene Auffassung von Ethik und ethischem Verhalten in das System ein – was mit den gesellschaftlichen Praktiken oder Werten, die wir propagieren wollen, übereinstimmen kann oder auch nicht.

Es ist von entscheidender Bedeutung, dass mehr Menschen aus den Sozialwissenschaften hinzugezogen werden, sagt Silver, und dass Datenwissenschaftler anfangen, über die menschliche Dynamik in der Beziehung zur KI nachzudenken, damit man am Ende nicht etwas baut, das einem Menschen schadet.

„Das ist letztlich der größte Fehler, wenn man eine KI entwickelt, die die Rechte einer Person verletzt, die Fähigkeit einer Person verletzt, etwas zu tun, wozu sie ein Recht gehabt hätte, aber die KI-Modelle haben sich versehentlich dagegen entschieden“, sagt sie. „Das ist etwas, womit die meisten Unternehmen zu kämpfen haben, nämlich wie man das gut macht.“

Implementierung von verantwortungsvoller und ethischer KI

Um den Weg zu ethischer KI zu beschreiten, braucht ein Unternehmen ein KI-Manifest, sagt Silver. Und die Führungskräfte müssen verstehen, was es bedeutet, ein datengesteuertes Unternehmen zu sein, und dann die Absicht haben, es verantwortungsvoll aufzubauen. Bei der Entwicklung einer KI-Lösung müssen Transparenz und Interpretierbarkeit der Modelle gewährleistet sein, damit auch Personen, die nicht unbedingt Datenwissenschaftler sind, verstehen können, wie die Modelle funktionieren.

Auch der Datenschutz ist wichtig, vor allem bei der Erstellung der richtigen Datensätze. Es ist kostspielig, dies verantwortungsbewusst zu tun, sagt Silver, und es ist kostspielig, sicherzustellen, dass alle Bevölkerungsgruppen in den Trainingsdaten repräsentiert oder zumindest empathisch erfasst sind. Damit tun sich viele Unternehmen schwer – aber es lohnt sich, denn es stellt sicher, dass die Software fair und gerecht ist und vermeidet potenzielle Rückschläge oder sogar Unternehmenskatastrophen, betont Silver. Ethische KI erfordert auch eine Feedback-Schleife

p, damit jeder, der an den Modellen arbeitet, seine Hand heben kann, um auf Probleme oder Bedenken hinzuweisen.

Es besteht auch die Notwendigkeit, über das maschinelle Lernen und die technischen Fähigkeiten hinaus Transparenz und Verantwortung zu schaffen, um Voreingenommenheit zu beseitigen und herauszufinden, wie die Systeme geschaffen werden und welche Auswirkungen sie auf die Gesellschaft haben werden, selbst wenn sie oberflächlich betrachtet gut sind in dem, was sie tun. Der Einsatz von Algorithmen zur Verbrechensverhütung und -vorhersage hat sich beispielsweise als relativ erfolgreich erwiesen, was die Strafverfolgung anbelangt; gleichzeitig hatten sie aufgrund der Art und Weise, wie diese Algorithmen eingesetzt werden, unverhältnismäßig negative Auswirkungen auf einige gesellschaftliche Gruppen.

„Als Datenwissenschaftler kann ich Ihnen sagen, dass ich der KI und den Aussichten, sie für das Gute zu nutzen, positiv gegenüberstehe. Tatsache ist jedoch, dass sie so zielgerichtet ist und in der Lage ist, auf unsere gesamte Gesellschaft überzugreifen, und wenn sie nicht so funktioniert, wie wir es uns wünschen, sind das Ausmaß des Schadens und die Geschwindigkeit, mit der er sich in der gesamten Gesellschaft fortsetzen kann, sehr groß und sehr folgenreich“, warnt Greer.

Wenn Sie mehr darüber erfahren möchten, wie KI für den guten Zweck eingesetzt wird, wie Sie sich an den breiteren Bemühungen um verantwortungsvolle und ethische KI beteiligen können und wohin diese Bemühungen Unternehmen, Organisationen und die Gesellschaft insgesamt führen, sollten Sie diese VB Live-Veranstaltung nicht verpassen.

Verpassen Sie es nicht!

Melden Sie sich hier kostenlos an.

Die

Teilnehmer werden lernen

:

  • Wie man Voreingenommenheit aus den Daten heraushält, um faire und ethische KI zu gewährleisten
  • Wie interpretierbare KI die Transparenz fördert und die Haftung von Unternehmen reduziert
  • Wie die bevorstehende staatliche Regulierung die Entwicklung und Implementierung von KI verändern wird
  • Wie die frühzeitige Einführung ethischer KI-Praktiken Ihnen helfen wird, Compliance-Probleme und Kosten zu vermeiden

Referenten

:

  • Noelle Silver, Partner, KI und Analytik, IBM
  • Melvin Greer, Intel Fellow und leitender Datenwissenschaftler, Nord- und Südamerika
  • Daniela Braga, Gründerin und CEO, Defined.ai
  • Chris J. Preimesberger, Moderator, VentureBeat


Weiterlesen: https://venturebeat.com/2022/04/06/why-transparent-interpretable-and-unbiased-ai-is-more-crucial-than-ever-vb-live/