Misselhorn | Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co. [Was bedeutet das alles?] | E-Book | sack.de
E-Book

E-Book, Deutsch, 160 Seiten

Reihe: Reclams Universal-Bibliothek

Misselhorn Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co. [Was bedeutet das alles?]

Misselhorn, Catrin - 14594 - 3., vollst. durchges. und erg. Auflage 2024
1. Auflage 2024
ISBN: 978-3-15-962268-2
Verlag: Reclam Verlag
Format: EPUB
Kopierschutz: 6 - ePub Watermark

Misselhorn, Catrin - 14594 - 3., vollst. durchges. und erg. Auflage 2024

E-Book, Deutsch, 160 Seiten

Reihe: Reclams Universal-Bibliothek

ISBN: 978-3-15-962268-2
Verlag: Reclam Verlag
Format: EPUB
Kopierschutz: 6 - ePub Watermark



Emotionale künstliche Intelligenz gilt als Schlüsseltechnologie der Zukunft. Künstliche Systeme sollen mitfühlend sein und Empathie in uns auslösen. Doch wie erkennen und verarbeiten künstliche Systeme menschliche Emotionen? Können sie echte Gefühle und Empathie empfinden und entwickeln? Führt die Entwicklung schmerzempfindlicher Roboter in der Biorobotik zur Auflösung der Grenze hin zu biologischen Organismen? Haben wir auch moralische Pflichten gegenüber Robotern, die unser Mitgefühl rühren? Und was ist von Roboterliebe und Sexrobotern zu halten? Die Expertin für Maschinenethik Catrin Misselhorn diskutiert die ethischen und technischen Aspekte dieser Fragen an anschaulichen Beispielen aus der Praxis und gibt einen Überblick über neue Tendenzen in der emotionalen künstlichen Intelligenz, der sozialen Robotik und Biorobotik.

Catrin Misselhorn, geb. 1970, ist Professorin für Philosophie an der Universität Göttingen. Sie gilt als die Expertin für den Bereich der Maschinen- und Roboterethik in Deutschland. Bei Reclam erschienen von ihr zuletzt Grundfragen der Maschinenethik sowie Künstliche Intelligenz - Das Ende der Kunst?.

Misselhorn Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co. [Was bedeutet das alles?] jetzt bestellen!

Autoren/Hrsg.


Weitere Infos & Material


Technische Herausforderungen und ethische Probleme
Die Versprechungen der Emotionserkennungsindustrie sind vollmundig. Automatische Emotionserkennung soll nicht nur dazu dienen, auf den emotionalen Zustand eines Individuums abgestimmte Werbung im Internet, in der Öffentlichkeit oder im Einzelhandel einzublenden. Sie soll potentielle Terroristen identifizieren, das Autofahren sicherer machen, Frustration im Klassenzimmer frühzeitig erkennen, die Wohnumgebung an die Stimmung anpassen, die Immersionserfahrung beim Computerspielen steigern, psychische Krankheiten erkennen und Menschen helfen, die bei der Emotionserkennung und -regulation Schwierigkeiten haben. Doch es gibt auch zahlreiche Kritikpunkte an der automatischen Emotionserkennung. So gibt es Kritik an der Zuverlässigkeit der eingesetzten Verfahren.30 Die gesichtsbasierte Emotionserkennung tut sich nicht nur mit der Diversität schwer und unterliegt rassistischen Vorurteilen, sondern weist auch grundlegende Mängel bei der Identifikation psychischer Störungen wie Depression auf. Doch auch andere der vorgestellten Verfahren stehen in der Kritik. Ein weiteres zentrales Problem besteht in der Wahrung der Privatsphäre, denn die Emotionserkennung erhebt sensible Daten, von denen kaum jemand wollen kann, dass andere darüber verfügen. Viele mobile Anwendungen übertragen die Daten von den Geräten der Nutzer auf zentrale Server, wo sie gespeichert und ohne ihre Zustimmung weiterverwendet werden können. Selbst dann, wenn die Daten anonymisiert werden, könnte man es als Verstoß gegen die informationelle Selbstbestimmung werten, dass Nutzer über die Speicherung und Nutzung ihrer Daten häufig nicht Bescheid wissen. Schnell könnten wir uns in einer ähnlichen Lage befinden wie die Insassen jenes Panopticons, das der britische Philosoph und Ökonom Jeremy Bentham im 18. Jahrhundert erdachte, um die Effizienz des Strafvollzugs zu steigern. In dieser Gefängniskonstruktion kann durch eine komplexe Architektur jeder Gefangene im Prinzip jederzeit von einem Wärter überwacht werden, ohne selbst wissen zu können, wann er Objekt der Überwachung ist. Auch wenn man nicht rund um die Uhr überwacht wird, reicht allein die Tatsache, dass man permanent überwacht werden könnte, als Maßnahme zur Disziplinierung der Gefangenen aus. Der französische Philosoph Michel Foucault hat diesen Gedanken auf die moderne Gesellschaft übertragen.31 Er charakterisiert deren Institutionen wie etwa Schule, Arbeitsplatz oder Krankenhaus durch die ständige Möglichkeit, beobachtet zu werden. Das führe dazu, dass sich die permanent unter potentieller Beobachtung stehenden Individuen selbst disziplinieren und ihr Verhalten an die Normen der Gesellschaft anpassen. Die gesellschaftlichen Normen werden auf diese Weise verinnerlicht, und der Selbstzwang mache die tatsächliche Überwachung letztendlich sogar überflüssig. Allein die Möglichkeit, beobachtet zu werden, führt deshalb dazu, dass man in seiner Selbstbestimmung eingeschränkt ist, wie das Bundesverfassungsgericht schon in seinem Urteil zur Volkszählung von 1983 feststellte. Doch ist dieses Urteil in der heutigen Zeit noch aktuell, in der viele Menschen durchaus bereit zu sein scheinen, auf informationelle Selbstbestimmung zu verzichten, um soziale Medien und andere Internetangebote nutzen zu können? Hierauf lässt sich dreierlei erwidern. Erstens birgt auch der freiwillige Verzicht auf informationelle Selbstbestimmung Gefahren, weil dadurch nicht nur bestimmte Formen und Dimensionen selbstbestimmten und authentischen Lebens unmöglich gemacht oder zumindest eingeschränkt werden. Personen, die permanent beobachtbar und identifizierbar sind, verändern ihr Selbstverständnis grundlegend. Dadurch werden auch die Grundlagen der Demokratie in Frage gestellt, die eben auf dem Ideal beruhen, dass Subjekte nicht nur autonom sind, sondern sich dieser Autonomie auch bewusst sind und sie wertschätzen.32 Zweitens bedroht die emotionale künstliche Intelligenz nicht nur die Privatsphäre, sondern die Intimsphäre, also den Bereich unserer persönlichsten Gedanken und Gefühle, einschließlich unseres Sexuallebens, die uns als Personen ganz grundlegend ausmachen. Der Zugriff auf diesen Bereich gefährdet die Selbstbestimmung auf eine ganz neue Art und in einem bisher nicht gekannten Umfang. Schließlich werden drittens diese intimen Informationen nicht nur erhoben, sondern auch zur Beeinflussung des Verhaltens genutzt. Es geht also letztlich um die Manipulation von Emotionen. Dem Einsatzbereich emotionaler künstlicher Intelligenz sind dabei keine Grenzen gesetzt, wie die folgende Liste belegt, ohne Anspruch auf Vollständigkeit zu erheben.33 Bereich Typische Methoden Verwendungszweck Werbung und Marktanalyse gesichtsbasierte Emotionserkennung, Sentimentanalyse, Stimmanalyse, biometrische Verfahren Erfassung von Präfenzen und Reaktionen auf Marken und Werbung, Optimierung und Personalisierung von Markenerscheinung und Werbung Gesprächsinterfaces gesichtsbasierte Emotionserkennung, Sentimentanalyse, Stimmanalyse, biometrische Verfahren Verbesserung der Interaktion mit technischen Geräten, Dienstleistungen und Inhalten Smart Cities und öffentlicher Raum gesichtsbasierte Emotionserkennung, Sentimentanalyse, biometrische Verfahren Personalisierte Werbung im öffentlichen Raum, Erfassung der Bürgerzufriedenheit (z. B. in Dubai) Datenbroker gesichtsbasierte Emotionserkennung, Sentimentanalyse, biometrische Verfahren Sammlung und Zusammenführung von Daten, um sie an unterschiedliche Kunden für kommerzielle Zwecke zu verkaufen. Bildung gesichtsbasierte Emotionserkennung, biometrische Verfahren Analyse des Verhaltens von Schülern und der Konzentration beim Lernen Finanzsektor Sentimentanalyse (insbesondere in den sozialen Medien) Erkennung von Emotionen und Stimmungen, die den Aktienmarkt beeinflussen Arbeitswelt gesichtsbasierte Emotionserkennung, Sentimentanalyse, Stimmanalyse, biometrische Verfahren Überprüfung von Bewerbern auf ihre Persönlichkeit, Belastbarkeit und Eignung für eine bestimmte Arbeitsstelle, Messung von Motivation und Leistungsfähigkeit am Arbeitsplatz Computerspiele gesichtsbasierte Emotionserkennung, biometrische Verfahren Verbesserung der Immersion und des Spielerlebnisses Gesundheitswesen gesichtsbasierte Emotionserkennung, Sentimentanalyse, Stimmanalyse, biometrische Verfahren Erfassung des geistigen und körperlichen Zustands, Registrierung psychischer Auffälligkeiten und Störungen, Begleitung von Patienten durch Assistenten, therapeutische Angebote Smart Home gesichtsbasierte Emotionserkennung, Sentimentanalyse, Stimmanalyse, biometrische Verfahren Personalisierte Haushaltsgeräte und Dienstleistungen, persönliche Assistenten, Medien Versicherungswesen gesichtsbasierte Emotionserkennung, Sentimentanalyse, biometrische Verfahren Einschätzung emotionaler Dispositionen der Versicherungsnehmer und ihrer psychischen Gesundheit Polizei und öffentliche Sicherheit gesichtsbasierte Emotionserkennung, Sentimentanalyse, biometrische Verfahren Erfassung und Beeinflussung von Stimmungen in der Öffentlichkeit, die zu Unruhen führen könnten, Beurteilung emotionaler Zustände und der psychischen Gesundheit von Beamten oder Anwärtern, Identifikation potentieller...



Ihre Fragen, Wünsche oder Anmerkungen
Vorname*
Nachname*
Ihre E-Mail-Adresse*
Kundennr.
Ihre Nachricht*
Lediglich mit * gekennzeichnete Felder sind Pflichtfelder.
Wenn Sie die im Kontaktformular eingegebenen Daten durch Klick auf den nachfolgenden Button übersenden, erklären Sie sich damit einverstanden, dass wir Ihr Angaben für die Beantwortung Ihrer Anfrage verwenden. Selbstverständlich werden Ihre Daten vertraulich behandelt und nicht an Dritte weitergegeben. Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Das Datenhandling bei Sack Fachmedien erklären wir Ihnen in unserer Datenschutzerklärung.