Joe Novak, Chief Innovation Officer Spitch: „Die Unternehmen sind gefordert, ein Gleichgewicht zwischen Innovation und der Ethik des Fortschritts zu finden.“
Frankfurt, 23. April 2024 – In der sich rasch entwickelnden Landschaft der Künstlichen Intelligenz (KI) wird die Unterscheidung zwischen „guter KI“ und „schlechter KI“ immer wichtiger – nicht nur in technologischer, sondern auch in ethischer und rechtlicher Hinsicht. Darauf weist die Spitch AG hin, einer der führenden europäischen Hersteller von Systemen für Conversational AI, also Sprach- und Textdialogsystemen auf KI-Basis.
Josef Novak, Co-Founder und Chief Innovation Officer bei Spitch, erklärt: „In dem Maße, in dem staatstragende Organe wie das EU-Parlament umfassende rechtliche Rahmenbedingungen für den KI-Einsatz verabschieden, wird es für Unternehmen immer wichtiger, bei der KI-Einführung den Datenschutz, die Sicherheit, die Einhaltung von Vorschriften und verantwortungsvolle Entwicklungspraktiken in den Vordergrund zu stellen.“ Nach Einschätzung des Chef-Innovators von Spitch ist die jüngste EU-Gesetzgebung zu KI, der EU AI Act, geeignet, „einen neuen globalen Standard für die verantwortungsvolle Einführung von KI zu setzen“.
Er wird deutlich: „Der EU AI Act fordert Unternehmen und Organisationen auf der ganzen Welt heraus, zwischen guter KI – bei der Datenschutz und Sicherheit im Vordergrund stehen – und schlechter KI – die sich auf die Ausbeutung von Daten konzentriert – zu unterscheiden.“ Es komme darauf an, „ein Gleichgewicht zwischen Innovation und der Ethik des Fortschritts zu finden“.
Gute und schlechte KI im Sinne des EU AI Act
Die Spitch AG ordnet die Konzepte der „guten“ und „schlechten“ KI aus regulatorischer und zukunftsorientierter pragmatischer Sicht wie nachfolgend beschrieben ein.
Die jüngste Verabschiedung des EU-KI-Gesetzes durch das Europäische Parlament ist ein wichtiger Meilenstein in den weltweiten Bemühungen, eine sichere und verantwortungsvolle Entwicklung von KI-Technologien zu gewährleisten. Ziel des Gesetzes ist es, die Rechte der Bürger, die Demokratie und die ökologische Nachhaltigkeit vor den Gefahren zu schützen, die von risikoreichen KI-Anwendungen ausgehen. Die Gesetzgebung legt Verpflichtungen fest, die auf den Risiko- und Auswirkungsgrad von KI-Systemen zugeschnitten sind, mit dem Ziel, Europa als globalen Vorreiter für verantwortungsvolle KI-Innovationen zu positionieren.
Das Gesetz gilt für Anbieter und Entwickler von KI-Systemen, die in der EU vermarktet oder genutzt werden, unabhängig davon, ob diese Anbieter oder Entwickler in der EU oder in einem anderen Land – etwa der Schweiz wie im Fall von Spitch – ansässig sind. Es verfolgt einen risikobasierten Ansatz für die Einstufung von KI-Systemen in vier Stufen, die der Sensibilität der betroffenen Daten und dem jeweiligen KI-Nutzungsfall bzw. der Anwendung entsprechen.
Die Gesetzgebung führt strenge Verbote für KI-Anwendungen ein, die als schädlich erachtet werden, wie zum Beispiel biometrische Kategorisierungssysteme, ungezieltes Scraping von Gesichtsbildern, Emotionserkennung am Arbeitsplatz und in der Schule, Social Scoring und prädiktive Polizeiarbeit, die ausschließlich auf Profiling basiert. Außerdem werden spezifische Bedingungen für den Einsatz biometrischer Identifizierung in der Strafverfolgung festgelegt und Transparenz und Genauigkeit für KI-Systeme mit hohem Risiko gefordert.
Rahmenwerke für KI gewinnen an Bedeutung
Während sich Unternehmen mit diesen neuen Herausforderungen auseinandersetzen, werden Frameworks wie etwa RAFT (Reliable, Accountable, Fair and Transparent) von der AI-Plattform Data Iku entwickelt, um einen umfassenden Unternehmens- sowie Forschungs- und Entwicklungs-Fahrplan für den verantwortungsvollen Aufbau von KI-Systemen zu erstellen, potenzielle Risiken zu adressieren und zukünftige regulatorische Entwicklungen vorausschauend zu berücksichtigen.
Das RAFT-Rahmenwerk unterstreicht die kritische Notwendigkeit für Unternehmen, die Rolle von Rechenschaftspflicht und Governance bei der Nutzung von KI-Systemen zu berücksichtigen, insbesondere im Zusammenhang mit der raschen Entwicklung und Einführung von generativer KI und großen Sprachmodellen (LLMs). Es wird betont, dass der Einsatz und die Steuerung von KI die soziotechnische Dynamik, rechtliche Erwägungen und aufkommende Probleme wie Datenschutz und Urheberrechtsverletzungen berücksichtigen müssen. Ziel dieses proaktiven Ansatzes ist es, den sich abzeichnenden Konsens über diese Technologie auf breiter Basis zu vereinheitlichen und Unternehmen und Forschungseinrichtungen einen vorausschauenden Ansatz zu bieten, mit dem sie sich vorbereiten können, auch wenn die Auswirkungen künftiger Gesetze noch ungewiss sind.
Generative KI birgt spezifische Risiken, wie Toxizität, Polarität, Diskriminierung, übermäßiges Vertrauen in KI, Desinformation, Datenschutz, Modellsicherheit und Urheberrechtsverletzungen. Diese Risiken können sich in verschiedenen Arten von KI-Technologie manifestieren und variieren je nach Anwendungsfall.
Der Mensch muss auch weiterhin das Sagen haben
Angesichts dieser Sachlage ist Spitch eigenen Angaben zufolge strikt darauf bedacht, sowohl die Notwendigkeit als auch die Auswirkungen von generativen KI-Tools zu berücksichtigen, wenn sie in bestehende Dienste eingebunden oder im eigenen Unternehmen genutzt werden. Bei der Integration dieser Tools in die eigenen Contact Center-Lösungen, etwa für das Qualitätsmanagement, liegt der Schwerpunkt auf der verantwortungsvollen Verbesserung des Kundenerlebnisses, der Reduzierung von Stress und der Rationalisierung von Kundeninteraktionen – nicht auf KI um der KI willen. „Wir vertreten die feste Überzeugung, dass der Mensch auch weiterhin das Sagen haben muss“, erklärt Joe Novak, und ergänzt: „Bei der verantwortungsbewussten Einführung von KI müssen Unternehmen die Zielgruppe für die Ergebnisse von KI-Modellen berücksichtigen – ob Geschäftskunden, Verbraucher oder Privatpersonen. Zudem ist strikt darauf zu achten, dass Schlüsselkriterien wie Zuverlässigkeit und Transparenz gefördert werden, denn das zeichnet gute KI aus.“
Bewertung der potenziellen Auswirkungen
Nach Ansicht des Chief Innovation Officers von Spitch sollten die potenziellen Risiken von KI-Systemen auf der Grundlage ihrer direkten und indirekten Auswirkungen auf Einzelpersonen und Gruppen bewertet werden. Dabei spielt es keine Rolle, ob diese Auswirkungen unmittelbar eintreten oder sich erst im Laufe der Zeit entfalten, meint Joe Novak. Er stellt für die Entwickler von KI-Systemen klipp und klar fest: „Wir müssen sicherstellen, dass unsere Lösungen weder absichtlich noch indirekt systematisch Daten ausspähen, Voreingenommenheit fördern, unnötig polarisieren oder Falschinformationen generieren. Das gilt sowohl für die Interaktion mit dem Einzelnen als auch im öffentlichen Raum. Es liegt an uns, in diesem Sinne gute KI zu entwickeln!“ Manche Auswirkungen würden möglicherweise erst im Laufe der Zeit ersichtlich und Firmen müssten ihre KI-Systeme dementsprechend anpassen.
Joe Novak erklärt für sein Unternehmen: „Bei Spitch haben wir uns verpflichtet, Datenschutz, Sicherheit, Compliance und verantwortungsvolle Entwicklungspraktiken zu priorisieren. Im Rahmen unserer Software für Conversational AI wollen wir die Leistungsfähigkeit der generativen KI nutzen und dabei gleichzeitig die mit schlechter KI verbundenen Risiken so weit wie möglich abschwächen. Hierzu werden wir uns an den aufkommenden globalen Standards für verantwortungsvolle KI-Innovationen orientieren.“
Über Spitch
Die Spitch AG mit Präsenz in zahlreichen europäischen Ländern und Nordamerika ist ein führender Entwickler und Anbieter von Sprach- und Textdialogsystemen für Unternehmen und Behörden. Spitch-Systeme verstehen nicht nur Wörter und Sätze, sondern insbesondere auch den Sinn des Gesagten. Hierzu setzt Spitch auf durchgängig eigenentwickelte Software, die Natural Language Processing (NLP), Artificial Intelligence (AI) und Machine Learning (ML) und Large Language Models (LLM) kombiniert. Je nach Anforderungen werden unterschiedliche Module auf Grundlage einer einheitlichen Omnichannel-Plattform zu einer kundenspezifischen Lösung zusammengeführt. Spitch-Systeme arbeiten in namhaften Call- und Contact-Center, Banken und Versicherungen, Telekommunikationsfirmen, der Automobil- und Transportbranche, dem Gesundheitswesen und im öffentlichen Dienst.
Um dir ein optimales Erlebnis zu bieten, verwenden wir Technologien wie Cookies, um Geräteinformationen zu speichern und/oder darauf zuzugreifen. Wenn du diesen Technologien zustimmst, können wir Daten wie das Surfverhalten oder eindeutige IDs auf dieser Website verarbeiten. Wenn du deine Zustimmung nicht erteilst oder zurückziehst, können bestimmte Merkmale und Funktionen beeinträchtigt werden.
Funktional
Immer aktiv
Die technische Speicherung oder der Zugang ist unbedingt erforderlich für den rechtmäßigen Zweck, die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Teilnehmer oder Nutzer ausdrücklich gewünscht wird, oder für den alleinigen Zweck, die Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz durchzuführen.
Vorlieben
Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Präferenzen erforderlich, die nicht vom Abonnenten oder Benutzer angefordert wurden.
Statistiken
Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt.Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Vorladung, die freiwillige Zustimmung deines Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht dazu verwendet werden, dich zu identifizieren.
Marketing
Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.
Comments are closed