
eBook - ePub
Gefährliche Forschung?
Eine Debatte über Gleichheit und Differenz in der Wissenschaft
- 145 Seiten
- German
- ePUB (handyfreundlich)
- Über iOS und Android verfügbar
eBook - ePub
Gefährliche Forschung?
Eine Debatte über Gleichheit und Differenz in der Wissenschaft
Über dieses Buch
Der vorliegende Band untersucht, welchen Einfluss wissenschaftliche Innovationen wie die Künstliche Intelligenz auf den Alltag haben. So wird die Beziehung von Wissenschaft und Öffentlichkeit unter den Aspekten der Verantwortung der Wissenschaftler/-innen, der Anwendung von Innovationen im öffentlichen Leben und der Wahrnehmung dieser Innovationen in der Öffentlichkeit beleuchtet.
Häufig gestellte Fragen
Ja, du kannst dein Abo jederzeit über den Tab Abo in deinen Kontoeinstellungen auf der Perlego-Website kündigen. Dein Abo bleibt bis zum Ende deines aktuellen Abrechnungszeitraums aktiv. Erfahre, wie du dein Abo kündigen kannst.
Derzeit stehen all unsere auf mobile Endgeräte reagierenden ePub-Bücher zum Download über die App zur Verfügung. Die meisten unserer PDFs stehen ebenfalls zum Download bereit; wir arbeiten daran, auch die übrigen PDFs zum Download anzubieten, bei denen dies aktuell noch nicht möglich ist. Weitere Informationen hier.
Perlego bietet zwei Pläne an: Elementar and Erweitert
- Elementar ist ideal für Lernende und Interessierte, die gerne eine Vielzahl von Themen erkunden. Greife auf die Elementar-Bibliothek mit über 800.000 professionellen Titeln und Bestsellern aus den Bereichen Wirtschaft, Persönlichkeitsentwicklung und Geisteswissenschaften zu. Mit unbegrenzter Lesezeit und Standard-Vorlesefunktion.
- Erweitert: Perfekt für Fortgeschrittene Studenten und Akademiker, die uneingeschränkten Zugriff benötigen. Schalte über 1,4 Mio. Bücher in Hunderten von Fachgebieten frei. Der Erweitert-Plan enthält außerdem fortgeschrittene Funktionen wie Premium Read Aloud und Research Assistant.
Wir sind ein Online-Abodienst für Lehrbücher, bei dem du für weniger als den Preis eines einzelnen Buches pro Monat Zugang zu einer ganzen Online-Bibliothek erhältst. Mit über 1 Million Büchern zu über 1.000 verschiedenen Themen haben wir bestimmt alles, was du brauchst! Weitere Informationen hier.
Achte auf das Symbol zum Vorlesen in deinem nächsten Buch, um zu sehen, ob du es dir auch anhören kannst. Bei diesem Tool wird dir Text laut vorgelesen, wobei der Text beim Vorlesen auch grafisch hervorgehoben wird. Du kannst das Vorlesen jederzeit anhalten, beschleunigen und verlangsamen. Weitere Informationen hier.
Ja! Du kannst die Perlego-App sowohl auf iOS- als auch auf Android-Geräten verwenden, um jederzeit und überall zu lesen – sogar offline. Perfekt für den Weg zur Arbeit oder wenn du unterwegs bist.
Bitte beachte, dass wir keine Geräte unterstützen können, die mit iOS 13 oder Android 7 oder früheren Versionen laufen. Lerne mehr über die Nutzung der App.
Bitte beachte, dass wir keine Geräte unterstützen können, die mit iOS 13 oder Android 7 oder früheren Versionen laufen. Lerne mehr über die Nutzung der App.
Ja, du hast Zugang zu Gefährliche Forschung? von Wilfried Hinsch, Susanne Brandtstädter, Wilfried Hinsch,Susanne Brandtstädter im PDF- und/oder ePub-Format sowie zu anderen beliebten Büchern aus Filosofía & Filosofía política. Aus unserem Katalog stehen dir über 1 Million Bücher zur Verfügung.
Information
Künstliche Intelligenz
Wer entscheidet, ob ich potentiell gefährlich bin?
Christoph Markschies
Der Abendvortrag für das Symposium „Gefährliche Forschung? Eine Debatte über Gleichheit und Differenz in der Wissenschaft“ in Köln am 30. 01. 2020 wurde für den Druck nur mit wenigen Nachweisen versehen. Frau Dr. Isabella Hermann, der Koordinatorin der Interdisziplinären Arbeitsgruppe „Verantwortung: Maschinelles Lernen und Künstliche Intelligenz“ an der Berlin-Brandenburgischen Akademie der Wissenschaften, danke ich sehr herzlich für eine gründliche Kommentierung und Durchsicht meiner Überlegungen.
Ein evangelischer Theologe und Historiker des antiken Christentums ist auch bei einer gewissen Erfahrung an verschiedenen Stellen im Wissenschaftsmanagement nur in sehr begrenztem Maß dazu berufen, zu dem Problemcluster Stellung zu nehmen, das auf dem Workshop „Gefährliche Forschung“ behandelt werden soll. Er ist weder Ethiker noch Molekularbiologe vom Fach, er kann also weder den egalitären Liberalismus (beispielsweise in der Form, die er bei John Rawls hat) ausführlicher analysieren, insbesondere den darin leitenden Grundwert der Gleichheit, noch molekularbiologische Forschungsergebnisse diskutieren, die jedenfalls nach Ansicht von David Reich und anderen diesen Grundwert der Gleichheit problematisch machen könnten.1 Wäre ich ein solcher Ethiker, würde ich vermutlich fragen, ob nicht schon bei Rawls durch die ausführliche Reflexion über soziale und wirtschaftliche Ungleichheiten mindestens deutlich ist, dass seit längerem (wir reden über eine Monographie des Jahres 19752) der Wert der Gleichheit in einer solchen Theorie der Gerechtigkeit es grundsätzlich mit dem faktischen Problem von Ungleichheiten zu tun hat und in einer demokratischen Gesellschaft nach Mechanismen gesucht werden muss, mit solchen Ungleichheiten möglichst allgemeinverträglich umzugehen. Mithin wäre die Schlüsselfrage, die ein qualifizierter Ethiker aus meiner Sicht im Blick auf das Problemcluster einer Tagung über „Gleichheit und Differenz in der Wissenschaft“ beantworten müsste, ob wir es heute mit Ungleichheiten zu tun haben, die strukturell den bei Rawls genannten sozialen und wirtschaftlichen Ungleichheiten entsprechen, oder ob eine neue Qualität vorliegt, die einen vernünftigerweise zweifeln lässt, ob bisherige Regulierungs- und Einhegungsmechanismen greifen. Um eine solche Frage zu diskutieren und dann einen Versuch einer Antwort zu formulieren, müssten aber natürlich neben Rawls andere AutorInnen in ein solches philosophisches Gespräch gezogen werden. Ich denke zuerst an Martha Nussbaum und ihren zeitweiligen Partner Amartya Sen, aber beispielsweise auch an Julian Nida-Rümelin, der immer wieder über Gleichheit gearbeitet hat und in einem dieser Beiträge definiert:
Gleich sind wir […] als Vernunftwesen. Als solche, die sich wechselseitig die Fähigkeit nach Gründen zu handeln und zu urteilen zuerkennen. Unabhängig vom sozialen Stand, politischer oder ökonomischer Macht erkennen wir uns als Gleiche an, insofern wir uns als Vernunftwesen sehen. Wir bringen Gründe vor – Gründe etwas zu glauben und Gründe etwas zu tun –, wenn wir mit Anderen human, wie es dem Menschen als Vernunftwesen gemäß ist, interagieren.3
Wenn wir aber Gleichheit mit Nida-Rümelin als einen von sozialem Stand, politischer oder ökonomischer Macht (also faktischer Ungleichheit) unabhängigen Zurechnungsbegriff verstehen (eine, nebenbei bemerkt, jedenfalls in meinen Augen durchaus kühne These), dann verschiebt sich die alltagspraktische Frage, die ich eben formuliert habe, leicht – nämlich dahin, ob eine solche nach Nida-Rümelin in demokratischen Gesellschaften selbstverständliche Zurechnung tatsächlich noch selbstverständlich ist und ob es Entwicklungen gibt, die diese Selbstverständlichkeit (weiter) zu erschüttern geeignet sind.
Bei diesen Fragen möchte ich einsetzen: Entsprechen in jüngster Zeit aufgekommene neue Ungleichheiten (präziser: erstens wissenschaftliche Beobachtung von faktisch vorhandener Ungleichheit und zweitens technische Konstruktion von Ungleichheit) strukturell den bislang beobachteten politischen, sozialen und wirtschaftlichen Ungleichheiten oder liegt eine neue Qualität vor, die einen vernünftigerweise zweifeln lässt, ob bisherige Regulierungs- und Einhegungsmechanismen greifen? In einem zweiten Gang möchte ich fragen, ob die in gewissen Graden selbstverständliche Zurechnung von Gleichheit tatsächlich noch selbstverständlich ist und ob es Entwicklungen gibt, die diese Selbstverständlichkeit (weiter) erschüttern können. Im ersten Abschnitt befasse ich mich mit Künstlicher Intelligenz und maschinellem Lernen, im zweiten Abschnitt mit Menschenbildern. Dafür, einige Beobachtungen zu diesen beiden Fragen vorzutragen, fühle ich mich einigermaßen gut vorbereitet, weil ich dabei auf Ergebnisse einer interdisziplinären Arbeitsgruppe an der Berlin-Brandenburgischen Akademie der Wissenschaften zurückgreifen kann, die den Titel „Verantwortung: Maschinelles Lernen und Künstliche Intelligenz“ trägt. Gemeinsam mit vierundzwanzig Kolleginnen und Kollegen (fast die Hälfte stammt aus der Jungen Akademie) untersuchen wir, wer in Systemen Künstlicher Intelligenz die Verantwortung trägt.4 Weiter fragen wir, wie durch rechtliche Verfahren am Ende NutzerInnen oder KundInnen gegenüber gewährleistet sein kann, dass überhaupt eine menschliche Person zur Verantwortung gezogen werden kann. Wir fragen so, weil wir überzeugt sind, dass Verantwortung im strengen Sinne nur von den eben erwähnten Vernunftwesen übernommen werden kann – so jedenfalls der ebenfalls gerade erwähnte Münchener Philosoph Nida-Rümelin in einer einschlägigen Veröffentlichung;5 er ist Mitglied der Arbeitsgruppe. Dass ein Theologe und Historiker, der sich gern auch mit Fragen der Geistes- und Ideengeschichte beschäftigt, außerdem über Menschenbilder nachdenkt (wie ich dies im zweiten Teil meiner Ausführungen tun werde), wird vielleicht auch nicht vollkommen verwundern. Wir kommen nun, nach diesen Vorbemerkungen, zum angekündigten ersten Teil; ich setze ganz in der Tradition einer bestimmten angelsächsischen Philosophie bei einem Alltagsbeispiel an.
I Künstliche Intelligenz und Maschinelles Lernen
Wenn ich von Berlin nach Köln fliege – und das passiert aufgrund meiner Verpflichtungen in der Fritz Thyssen Stiftung gar nicht so selten,6 dann passiere ich die Sicherheitskontrolle des Berliner Flughafens und auf der Rückreise die des Flughafens Köln-Bonn. Seit längerem wundere ich mich über die Unterschiede bei der Intensität der Kontrolle. Dabei überrascht mich weniger, dass in Köln grundsätzlich die Schnalle des Gürtels meiner Hose anschlägt und in Berlin nicht, denn das mag an der unterschiedlich scharfen Einstellung des Metalldetektors liegen. Ich wundere mich vielmehr darüber, dass ich in Berlin (oder auch in Köln) mit exakt derselben Kleidung und denselben Accessoires mal den Alarm auslöse und mal nicht. Ich habe diese Erfahrung mit den Menschen an der Sicherheitskontrolle diskutiert und die Auskunft erhalten, dass ein Automatismus nach einer fest definierten Zahl von Menschen, die die Kontrolle passiert haben, Alarm auslöst, damit nach dem Zufallsprinzip auch zusätzlich zum automatisierten Röntgen ausführlicher manuell kontrolliert werden kann. Dieses System fand ich einleuchtend, eben weil es auf dem Zufallsprinzip beruht. Die Wahrheit der uralten, schon in der Antike bekannten Ansicht, dass Gerechtigkeit unter bestimmten Umständen mit automatisierten Losverfahren hergestellt werden kann,7 zeigt sich beispielsweise in unserem Rechtssystem, wird jetzt aber auch von Stiftungen als Argument für entsprechende Entscheidungsverfahren eingesetzt (nicht bei der Fritz Thyssen Stiftung). Mit Künstlicher Intelligenz hat das alles noch gar nichts zu tun, weil ein automatisiertes Abzählen kein selbstlernendes System darstellt, das sein Verhalten – in diesem Falle also das Zählen – auf der Grundlage gewonnener Erkenntnisse bei der Informationsverarbeitung anpassen kann, also aufgrund neuer Erkenntnisse anders zählen müsste.
Selbstverständlich werden aber inzwischen, wie wir vermutlich alle wissen, bei Sicherheitskontrollen selbstlernende Systeme eingesetzt – einschlägig für unsere Zusammenhänge ist vor allem das „Predictive Policing“. Darunter versteht man ein Verfahren, das durch maschinelles Anlegen von Mustern, die Anhaltspunkte für vorher definierte Normabweichungen enthalten, gleichsam Verdacht schöpfen hilft, sodass auch vollkommen unbescholtene Menschen ins Visier von Polizeibehörden geraten können, weil sie sich an einem Ort aufhalten, an dem in der Vergangenheit auffällig häufig Straftaten begangen wurden, und so die für alle geltende Unschuldsvermutung außer Kraft gesetzt wird. Dabei handelt es sich genau um die Orte, an denen viele sozial Schwächere und ethnische Minderheiten leben. Selbstverständlich ist daraus nicht zu schließen, dass in eleganteren Vororten beispielsweise die Jugendlichen keine Drogen konsumieren oder verkaufen; diese Straftaten fallen allerdings nur dann auf, wenn die Polizei dort ebenso häufig und gründlich kontrolliert wie in den Stadtvierteln der Ärmeren. So ergibt sich für diese Ortslagen eine Negativspirale nach unten, weil immer mehr Delikte aufgedeckt werden, was dann wiederum ins System eingespeist wird.8
Zu den ersten Nutzern einschlägiger Software gehörte die Polizei in der kalifornischen Küstenstadt Santa Cruz. Bereits seit 2011 wurden die rund hundert PolizistInnen der Stadt von einem Computerprogramm in fünfzehn high risk areas – Gebiete mit einem angeblich hohen Potenzial für Straftaten – auf Streife geschickt. Entwickelt wurde die erste „Predictive-Policing“-Software von dem Computerwissenschaftler George Mohler und dem auf Verbrechensszenarien spezialisierten Anthropologen Jeffrey Brantingham, und zwar auf der Basis von Modellen der Erdbebenforschung. Die beiden Wissenschaftler gründeten ein eigenes Startup und vermarkten inzwischen ihre Analyse-Software unter dem Namen PredPol; diese Software wird von der Polizei in Großstädten wie Los Angeles, Chicago, Seattle oder Boston verwendet. Die Homepage des Unternehmens wirbt um neue Kunden mit beeindruckenden Steigerungen der Aufklärungsquoten:
The Los Angeles Police Department saw a 20 % drop in predicted crimes year over year and one division experienced, for the first time, a day with no reported crime. The Jefferson County Sheriff Department saw a 24 % reduction in robberies and a 13 % reduction in burglaries. Plainfield, New Jersey has seen a 54 % reduction in robberies and 69 % reduction in vehicle burglaries since deployment.9
Vom Jahr 2013 an nutzte als damals erste europäische Behörde die Polizei in der britischen Grafschaft Kent PredPol. Inzwischen verwenden verschiedene Landeskriminalämter und Polizeibehörden auch in der Bundesrepublik Deutschland entsprechende Software von verschiedenen kleineren und größeren Anbietern, teilweise auch nur in begrenzten Feldversuchen.10 Allerdings ist mittlerweile, wenn ich recht sehe, auch eine überaus kontroverse Diskussion um die Frage ausgebrochen, ob mit solchen Systemen Künstlicher Intelligenz wirklich die Verbrechensquoten signifikant gesenkt werden können (und also die zitierten Prozentzahlen des amerikanischen Unternehmens wirklich signifikant für das Programm sind, das dieses Unternehmen vertreibt). Gestritten wird aber auch über die Annahmen zur Korrelation von bestimmten Ortslagen und Gefährdungsprognosen (und damit indirekt von ethnischen sowie sozialen Merkmalen und Verbrechen11), die dem Programm zugrundeliegen, sowie schließlich über d...
Inhaltsverzeichnis
- Title Page
- Copyright
- Contents
- Einleitung
- Künstliche Intelligenz
- Wissenschaftskommunikation
- Über die Autoren