Aufgrund der faszinierend schnellen Entwicklung der künstlichen Intelligenz (KI) werden Forderungen nach Vorschriften, die ethischen Standards entsprechen, immer lauter. Zuletzt gipfelte dies in einer Petition — unterzeichnet von den großen Namen der Technologiebranche (darunter Apple-Mitbegründer Steve Wozniak und Elon Musk, der selbst ein früher Investor in OpenAI war) —, in der die Aussetzung der KI-Entwicklung für mindestens ein halbes Jahr gefordert wurde. Kurz zuvor hatte der Deutsche Ethikrat eine 300-seitige Studie zu eben diesem Thema veröffentlicht: „Mensch — Maschine“ und wagt dennoch nicht wirklich, ein wegweisendes Fazit zu ziehen, sondern bezieht sich stattdessen auf Einzelfallbetrachtungen.
Die USA sind weit davon entfernt, KI gesetzlich zu regulieren. Teile des Kongresses sind ziemlich damit beschäftigt, sich erneut mit technisch unausgeklügelten Fragen an Bytedance oder TikTok zu blamieren — und das vor den Augen von Millionen amerikanischer TikTok-Nutzer.
Nur die EU mit ihrem KI-Gesetz scheint einen Plan zu haben, wie KI von nun an reguliert werden soll. Aber was bedeutet das eigentlich: KI nach ethischen Standards regulieren zu wollen und warum haben wir eigentlich so viele ethische Bedenken gegenüber dieser Innovation?
Aufgrund der faszinierend schnellen Entwicklung der künstlichen Intelligenz (KI) werden Forderungen nach Vorschriften, die ethischen Standards entsprechen, immer lauter. Zuletzt gipfelte dies in einer Petition — unterzeichnet von den großen Namen der Technologiebranche (darunter Apple-Mitbegründer Steve Wozniak und Elon Musk, der selbst ein früher Investor in OpenAI war) —, in der die Aussetzung der KI-Entwicklung für mindestens ein halbes Jahr gefordert wurde. Kurz zuvor hatte der Deutsche Ethikrat eine 300-seitige Studie zu eben diesem Thema veröffentlicht: „Mensch — Maschine“ und wagt dennoch nicht wirklich, ein wegweisendes Fazit zu ziehen, sondern bezieht sich stattdessen auf Einzelfallbetrachtungen.
Die USA sind weit davon entfernt, KI gesetzlich zu regulieren. Teile des Kongresses sind ziemlich damit beschäftigt, sich erneut mit technisch unausgeklügelten Fragen an Bytedance oder TikTok zu blamieren — und das vor den Augen von Millionen amerikanischer TikTok-Nutzer.
Nur die EU mit ihrem KI-Gesetz scheint einen Plan zu haben, wie KI von nun an reguliert werden soll. Aber was bedeutet das eigentlich: KI nach ethischen Standards regulieren zu wollen und warum haben wir eigentlich so viele ethische Bedenken gegenüber dieser Innovation?
Aufgrund der faszinierend schnellen Entwicklung der künstlichen Intelligenz (KI) werden Forderungen nach Vorschriften, die ethischen Standards entsprechen, immer lauter. Zuletzt gipfelte dies in einer Petition — unterzeichnet von den großen Namen der Technologiebranche (darunter Apple-Mitbegründer Steve Wozniak und Elon Musk, der selbst ein früher Investor in OpenAI war) —, in der die Aussetzung der KI-Entwicklung für mindestens ein halbes Jahr gefordert wurde. Kurz zuvor hatte der Deutsche Ethikrat eine 300-seitige Studie zu eben diesem Thema veröffentlicht: „Mensch — Maschine“ und wagt dennoch nicht wirklich, ein wegweisendes Fazit zu ziehen, sondern bezieht sich stattdessen auf Einzelfallbetrachtungen.
Die USA sind weit davon entfernt, KI gesetzlich zu regulieren. Teile des Kongresses sind ziemlich damit beschäftigt, sich erneut mit technisch unausgeklügelten Fragen an Bytedance oder TikTok zu blamieren — und das vor den Augen von Millionen amerikanischer TikTok-Nutzer.
Nur die EU mit ihrem KI-Gesetz scheint einen Plan zu haben, wie KI von nun an reguliert werden soll. Aber was bedeutet das eigentlich: KI nach ethischen Standards regulieren zu wollen und warum haben wir eigentlich so viele ethische Bedenken gegenüber dieser Innovation?
Seit der Markteinführung von ChatGPT ist KI ein großes Gesprächsthema. Wirtschaft, Politik und Gesellschaft diskutieren zu Recht über die Technologie, die Bill Gates in seinen „Gates Notes“ unter dem Titel „Das Zeitalter der KI hat begonnen“ inzwischen als die bahnbrechendste Erfindung seit dem PC und dem Internet bezeichnet. Dass Bill Gates ein Fan von KI ist, überrascht nicht. Schließlich investiert Microsoft stark in OpenAI und ist damit der große Nutznießer dieser Entwicklung. Chat-GPT erreichte in der ersten Woche die Marke von 1 Million Nutzern und brach damit alle Rekorde.
Zum Vergleich: Spotify brauchte 5 Monate, Facebook 10 Monate und Netflix 3,5 Jahre. Bis 2025 wird der globale KI-Markt voraussichtlich 60 Milliarden US-Dollar erreichen und gleichzeitig ein Wirtschaftswachstum von 2,9 Billionen US-Dollar generieren.
Zusammenfassend lässt sich sagen, dass das Tempo der KI-Fortschritte noch nie so schnell war und die Ergebnisse nie besser waren.
Seit der Markteinführung von ChatGPT ist KI ein großes Gesprächsthema. Wirtschaft, Politik und Gesellschaft diskutieren zu Recht über die Technologie, die Bill Gates in seinen „Gates Notes“ unter dem Titel „Das Zeitalter der KI hat begonnen“ inzwischen als die bahnbrechendste Erfindung seit dem PC und dem Internet bezeichnet. Dass Bill Gates ein Fan von KI ist, überrascht nicht. Schließlich investiert Microsoft stark in OpenAI und ist damit der große Nutznießer dieser Entwicklung. Chat-GPT erreichte in der ersten Woche die Marke von 1 Million Nutzern und brach damit alle Rekorde.
Zum Vergleich: Spotify brauchte 5 Monate, Facebook 10 Monate und Netflix 3,5 Jahre. Bis 2025 wird der globale KI-Markt voraussichtlich 60 Milliarden US-Dollar erreichen und gleichzeitig ein Wirtschaftswachstum von 2,9 Billionen US-Dollar generieren.
Zusammenfassend lässt sich sagen, dass das Tempo der KI-Fortschritte noch nie so schnell war und die Ergebnisse nie besser waren.
Seit der Markteinführung von ChatGPT ist KI ein großes Gesprächsthema. Wirtschaft, Politik und Gesellschaft diskutieren zu Recht über die Technologie, die Bill Gates in seinen „Gates Notes“ unter dem Titel „Das Zeitalter der KI hat begonnen“ inzwischen als die bahnbrechendste Erfindung seit dem PC und dem Internet bezeichnet. Dass Bill Gates ein Fan von KI ist, überrascht nicht. Schließlich investiert Microsoft stark in OpenAI und ist damit der große Nutznießer dieser Entwicklung. Chat-GPT erreichte in der ersten Woche die Marke von 1 Million Nutzern und brach damit alle Rekorde.
Zum Vergleich: Spotify brauchte 5 Monate, Facebook 10 Monate und Netflix 3,5 Jahre. Bis 2025 wird der globale KI-Markt voraussichtlich 60 Milliarden US-Dollar erreichen und gleichzeitig ein Wirtschaftswachstum von 2,9 Billionen US-Dollar generieren.
Zusammenfassend lässt sich sagen, dass das Tempo der KI-Fortschritte noch nie so schnell war und die Ergebnisse nie besser waren.
Seit der Markteinführung von ChatGPT ist KI ein großes Gesprächsthema. Wirtschaft, Politik und Gesellschaft diskutieren zu Recht über die Technologie, die Bill Gates in seinen „Gates Notes“ unter dem Titel „Das Zeitalter der KI hat begonnen“ inzwischen als die bahnbrechendste Erfindung seit dem PC und dem Internet bezeichnet. Dass Bill Gates ein Fan von KI ist, überrascht nicht. Schließlich investiert Microsoft stark in OpenAI und ist damit der große Nutznießer dieser Entwicklung. Chat-GPT erreichte in der ersten Woche die Marke von 1 Million Nutzern und brach damit alle Rekorde.
Zum Vergleich: Spotify brauchte 5 Monate, Facebook 10 Monate und Netflix 3,5 Jahre. Bis 2025 wird der globale KI-Markt voraussichtlich 60 Milliarden US-Dollar erreichen und gleichzeitig ein Wirtschaftswachstum von 2,9 Billionen US-Dollar generieren.
Zusammenfassend lässt sich sagen, dass das Tempo der KI-Fortschritte noch nie so schnell war und die Ergebnisse nie besser waren.
Seit der Markteinführung von ChatGPT ist KI ein großes Gesprächsthema. Wirtschaft, Politik und Gesellschaft diskutieren zu Recht über die Technologie, die Bill Gates in seinen „Gates Notes“ unter dem Titel „Das Zeitalter der KI hat begonnen“ inzwischen als die bahnbrechendste Erfindung seit dem PC und dem Internet bezeichnet. Dass Bill Gates ein Fan von KI ist, überrascht nicht. Schließlich investiert Microsoft stark in OpenAI und ist damit der große Nutznießer dieser Entwicklung. Chat-GPT erreichte in der ersten Woche die Marke von 1 Million Nutzern und brach damit alle Rekorde.
Zum Vergleich: Spotify brauchte 5 Monate, Facebook 10 Monate und Netflix 3,5 Jahre. Bis 2025 wird der globale KI-Markt voraussichtlich 60 Milliarden US-Dollar erreichen und gleichzeitig ein Wirtschaftswachstum von 2,9 Billionen US-Dollar generieren.
Zusammenfassend lässt sich sagen, dass das Tempo der KI-Fortschritte noch nie so schnell war und die Ergebnisse nie besser waren.
Natürlich werden solche Innovationen, die in der Öffentlichkeit stattfinden, schnell sind und Menschen betreffen, nicht nur gefeiert. Gerade im Fall der künstlichen Intelligenz gibt es innerhalb der Gesellschaft große Kritiker und auch Befürchtungen.
KI wird manchmal sogar als Bedrohung wahrgenommen. 35% der Amerikaner würden niemals ein selbstfahrendes Auto kaufen wollen. 60% der Verbraucher hätten Vorbehalte, Versicherungen über einen Chatbot abzuschließen.
Sehen wir uns eine Innovation an, die am Ende niemand will? Nach Angaben des Wirtschaftsforums wird der Einsatz von KI insgesamt 85 Millionen Arbeitsplätze überflüssig machen. Sind das die Befürchtungen von Branchenaußenstehenden und Kulturpessimisten?
Die Kritik an KI hat seit dem 22. März 2023 eine neue Dimension erreicht: Ein offener Brief des Tech-Milliardärs Elon Musk, in dem er fordert, die Entwicklung künstlicher Intelligenz für mindestens sechs Monate zu stoppen, hat bereits Hunderte namhafter Unterstützer und 27.000 weitere gefunden. Darunter Apple-Mitbegründer Steve Wozniak, Yoshua Bengio, der einst für seine Forschung zu künstlichen neuronalen Netzwerken und Deep Learning mit dem Turing Award ausgezeichnet wurde, sowie andere Unternehmer und Wissenschaftler aus der KI-Branche.
In dem Brief schreibt Musk fast dramatisch, dass das „gefährliche Rennen gestoppt werden muss“, und fordert die KI-Labore auf, „das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens sechs Monate auszusetzen. Diese Pause sollte öffentlich und überprüfbar sein und alle wichtigen Interessengruppen einbeziehen.“
Der Kern der Kritik, sagte er, seien die sogenannten Black-Box-Modelle, bei denen selbst die Entwickler nicht mehr nachvollziehen können, wie die Systeme zu ihren Ergebnissen kommen. Im Vergleich zu dieser eher nüchternen Forderung ist der Brief auch ziemlich polemisch und zeichnet stellenweise eine dystopische Zukunft. So heißt es beispielsweise an einer Stelle: „Sollen wir nichtmenschliche Intelligenzen entwickeln, die uns eines Tages zahlenmäßig übertreffen, uns überlisten, überflüssig machen und uns ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren?“
In dem Schreiben wird weiter kritisiert, insbesondere an KI-Systemen, die jetzt täuschend echte Fotos erzeugen können. So heißt es beispielsweise: „Die heutigen KI-Systeme werden bei allgemeinen Aufgaben immer wettbewerbsfähiger für Menschen, und wir müssen uns fragen: Sollten wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten? Sollen wir alle Aufgaben automatisieren, auch die, die sie erfüllen?“
Der offene Brief ist im Allgemeinen ein ziemlicher Angriff auf die KI-Forschung, insbesondere aber auf das Unternehmen OpenAI. Wie dieser Brief einzuordnen ist und was die eigentliche Motivation dahinter ist, bleibt umstritten. Elon Musk selbst war Mitbegründer des ursprünglich gemeinnützigen Unternehmens OpenAI.
Laut einem Bericht der Nachrichtenwebsite Semafor versuchte Musk, das Unternehmen zu übernehmen, aber nachdem er damit gescheitert war, stieg er aus. OpenAI ist derzeit der unangefochtene Marktführer, der Brief könnte auch nur eine Hoffnung sein, in diesem erbitterten Rennen unter KI-Unternehmen etwas Zeit zu gewinnen. Schließlich plant Musk wahrscheinlich, selbst eine konkurrierende KI auf den Markt zu bringen.
Der offene Brief, der bereits bestehende Berührungsängste mit technischen Innovationen schürt, könnte also ein verstecktes wirtschaftliches Eigeninteresse verfolgen. Aber selbst wenn nicht, ist der Brief generell ziemlich polemisch und mit Blick auf die vielen Unternehmer und Wissenschaftler aus der KI-Branche auch nicht sehr tiefgründig, was die technischen Aspekte angeht, was auch der CEO von OpenAI, Sven Altman, kritisiert.
Zweifellos ist es sinnvoll, sich eine Technologie, die so vielversprechend und breit einsetzbar ist, genauer anzusehen. Als Gesellschaft sollten wir uns also überlegen, wie wir die aufkommende KI so nutzen können, dass am Ende die Menschen die einzigen Nutznießer der Innovation sind. Und wie bei jeder größeren Innovation zuvor werden sich grundlegende ethische Fragen stellen. Aber wie sollte KI aus ethischer Sicht klassifiziert werden?
Natürlich werden solche Innovationen, die in der Öffentlichkeit stattfinden, schnell sind und Menschen betreffen, nicht nur gefeiert. Gerade im Fall der künstlichen Intelligenz gibt es innerhalb der Gesellschaft große Kritiker und auch Befürchtungen.
KI wird manchmal sogar als Bedrohung wahrgenommen. 35% der Amerikaner würden niemals ein selbstfahrendes Auto kaufen wollen. 60% der Verbraucher hätten Vorbehalte, Versicherungen über einen Chatbot abzuschließen.
Sehen wir uns eine Innovation an, die am Ende niemand will? Nach Angaben des Wirtschaftsforums wird der Einsatz von KI insgesamt 85 Millionen Arbeitsplätze überflüssig machen. Sind das die Befürchtungen von Branchenaußenstehenden und Kulturpessimisten?
Die Kritik an KI hat seit dem 22. März 2023 eine neue Dimension erreicht: Ein offener Brief des Tech-Milliardärs Elon Musk, in dem er fordert, die Entwicklung künstlicher Intelligenz für mindestens sechs Monate zu stoppen, hat bereits Hunderte namhafter Unterstützer und 27.000 weitere gefunden. Darunter Apple-Mitbegründer Steve Wozniak, Yoshua Bengio, der einst für seine Forschung zu künstlichen neuronalen Netzwerken und Deep Learning mit dem Turing Award ausgezeichnet wurde, sowie andere Unternehmer und Wissenschaftler aus der KI-Branche.
In dem Brief schreibt Musk fast dramatisch, dass das „gefährliche Rennen gestoppt werden muss“, und fordert die KI-Labore auf, „das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens sechs Monate auszusetzen. Diese Pause sollte öffentlich und überprüfbar sein und alle wichtigen Interessengruppen einbeziehen.“
Der Kern der Kritik, sagte er, seien die sogenannten Black-Box-Modelle, bei denen selbst die Entwickler nicht mehr nachvollziehen können, wie die Systeme zu ihren Ergebnissen kommen. Im Vergleich zu dieser eher nüchternen Forderung ist der Brief auch ziemlich polemisch und zeichnet stellenweise eine dystopische Zukunft. So heißt es beispielsweise an einer Stelle: „Sollen wir nichtmenschliche Intelligenzen entwickeln, die uns eines Tages zahlenmäßig übertreffen, uns überlisten, überflüssig machen und uns ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren?“
In dem Schreiben wird weiter kritisiert, insbesondere an KI-Systemen, die jetzt täuschend echte Fotos erzeugen können. So heißt es beispielsweise: „Die heutigen KI-Systeme werden bei allgemeinen Aufgaben immer wettbewerbsfähiger für Menschen, und wir müssen uns fragen: Sollten wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten? Sollen wir alle Aufgaben automatisieren, auch die, die sie erfüllen?“
Der offene Brief ist im Allgemeinen ein ziemlicher Angriff auf die KI-Forschung, insbesondere aber auf das Unternehmen OpenAI. Wie dieser Brief einzuordnen ist und was die eigentliche Motivation dahinter ist, bleibt umstritten. Elon Musk selbst war Mitbegründer des ursprünglich gemeinnützigen Unternehmens OpenAI.
Laut einem Bericht der Nachrichtenwebsite Semafor versuchte Musk, das Unternehmen zu übernehmen, aber nachdem er damit gescheitert war, stieg er aus. OpenAI ist derzeit der unangefochtene Marktführer, der Brief könnte auch nur eine Hoffnung sein, in diesem erbitterten Rennen unter KI-Unternehmen etwas Zeit zu gewinnen. Schließlich plant Musk wahrscheinlich, selbst eine konkurrierende KI auf den Markt zu bringen.
Der offene Brief, der bereits bestehende Berührungsängste mit technischen Innovationen schürt, könnte also ein verstecktes wirtschaftliches Eigeninteresse verfolgen. Aber selbst wenn nicht, ist der Brief generell ziemlich polemisch und mit Blick auf die vielen Unternehmer und Wissenschaftler aus der KI-Branche auch nicht sehr tiefgründig, was die technischen Aspekte angeht, was auch der CEO von OpenAI, Sven Altman, kritisiert.
Zweifellos ist es sinnvoll, sich eine Technologie, die so vielversprechend und breit einsetzbar ist, genauer anzusehen. Als Gesellschaft sollten wir uns also überlegen, wie wir die aufkommende KI so nutzen können, dass am Ende die Menschen die einzigen Nutznießer der Innovation sind. Und wie bei jeder größeren Innovation zuvor werden sich grundlegende ethische Fragen stellen. Aber wie sollte KI aus ethischer Sicht klassifiziert werden?
Natürlich werden solche Innovationen, die in der Öffentlichkeit stattfinden, schnell sind und Menschen betreffen, nicht nur gefeiert. Gerade im Fall der künstlichen Intelligenz gibt es innerhalb der Gesellschaft große Kritiker und auch Befürchtungen.
KI wird manchmal sogar als Bedrohung wahrgenommen. 35% der Amerikaner würden niemals ein selbstfahrendes Auto kaufen wollen. 60% der Verbraucher hätten Vorbehalte, Versicherungen über einen Chatbot abzuschließen.
Sehen wir uns eine Innovation an, die am Ende niemand will? Nach Angaben des Wirtschaftsforums wird der Einsatz von KI insgesamt 85 Millionen Arbeitsplätze überflüssig machen. Sind das die Befürchtungen von Branchenaußenstehenden und Kulturpessimisten?
Die Kritik an KI hat seit dem 22. März 2023 eine neue Dimension erreicht: Ein offener Brief des Tech-Milliardärs Elon Musk, in dem er fordert, die Entwicklung künstlicher Intelligenz für mindestens sechs Monate zu stoppen, hat bereits Hunderte namhafter Unterstützer und 27.000 weitere gefunden. Darunter Apple-Mitbegründer Steve Wozniak, Yoshua Bengio, der einst für seine Forschung zu künstlichen neuronalen Netzwerken und Deep Learning mit dem Turing Award ausgezeichnet wurde, sowie andere Unternehmer und Wissenschaftler aus der KI-Branche.
In dem Brief schreibt Musk fast dramatisch, dass das „gefährliche Rennen gestoppt werden muss“, und fordert die KI-Labore auf, „das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens sechs Monate auszusetzen. Diese Pause sollte öffentlich und überprüfbar sein und alle wichtigen Interessengruppen einbeziehen.“
Der Kern der Kritik, sagte er, seien die sogenannten Black-Box-Modelle, bei denen selbst die Entwickler nicht mehr nachvollziehen können, wie die Systeme zu ihren Ergebnissen kommen. Im Vergleich zu dieser eher nüchternen Forderung ist der Brief auch ziemlich polemisch und zeichnet stellenweise eine dystopische Zukunft. So heißt es beispielsweise an einer Stelle: „Sollen wir nichtmenschliche Intelligenzen entwickeln, die uns eines Tages zahlenmäßig übertreffen, uns überlisten, überflüssig machen und uns ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren?“
In dem Schreiben wird weiter kritisiert, insbesondere an KI-Systemen, die jetzt täuschend echte Fotos erzeugen können. So heißt es beispielsweise: „Die heutigen KI-Systeme werden bei allgemeinen Aufgaben immer wettbewerbsfähiger für Menschen, und wir müssen uns fragen: Sollten wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten? Sollen wir alle Aufgaben automatisieren, auch die, die sie erfüllen?“
Der offene Brief ist im Allgemeinen ein ziemlicher Angriff auf die KI-Forschung, insbesondere aber auf das Unternehmen OpenAI. Wie dieser Brief einzuordnen ist und was die eigentliche Motivation dahinter ist, bleibt umstritten. Elon Musk selbst war Mitbegründer des ursprünglich gemeinnützigen Unternehmens OpenAI.
Laut einem Bericht der Nachrichtenwebsite Semafor versuchte Musk, das Unternehmen zu übernehmen, aber nachdem er damit gescheitert war, stieg er aus. OpenAI ist derzeit der unangefochtene Marktführer, der Brief könnte auch nur eine Hoffnung sein, in diesem erbitterten Rennen unter KI-Unternehmen etwas Zeit zu gewinnen. Schließlich plant Musk wahrscheinlich, selbst eine konkurrierende KI auf den Markt zu bringen.
Der offene Brief, der bereits bestehende Berührungsängste mit technischen Innovationen schürt, könnte also ein verstecktes wirtschaftliches Eigeninteresse verfolgen. Aber selbst wenn nicht, ist der Brief generell ziemlich polemisch und mit Blick auf die vielen Unternehmer und Wissenschaftler aus der KI-Branche auch nicht sehr tiefgründig, was die technischen Aspekte angeht, was auch der CEO von OpenAI, Sven Altman, kritisiert.
Zweifellos ist es sinnvoll, sich eine Technologie, die so vielversprechend und breit einsetzbar ist, genauer anzusehen. Als Gesellschaft sollten wir uns also überlegen, wie wir die aufkommende KI so nutzen können, dass am Ende die Menschen die einzigen Nutznießer der Innovation sind. Und wie bei jeder größeren Innovation zuvor werden sich grundlegende ethische Fragen stellen. Aber wie sollte KI aus ethischer Sicht klassifiziert werden?
Natürlich werden solche Innovationen, die in der Öffentlichkeit stattfinden, schnell sind und Menschen betreffen, nicht nur gefeiert. Gerade im Fall der künstlichen Intelligenz gibt es innerhalb der Gesellschaft große Kritiker und auch Befürchtungen.
KI wird manchmal sogar als Bedrohung wahrgenommen. 35% der Amerikaner würden niemals ein selbstfahrendes Auto kaufen wollen. 60% der Verbraucher hätten Vorbehalte, Versicherungen über einen Chatbot abzuschließen.
Sehen wir uns eine Innovation an, die am Ende niemand will? Nach Angaben des Wirtschaftsforums wird der Einsatz von KI insgesamt 85 Millionen Arbeitsplätze überflüssig machen. Sind das die Befürchtungen von Branchenaußenstehenden und Kulturpessimisten?
Die Kritik an KI hat seit dem 22. März 2023 eine neue Dimension erreicht: Ein offener Brief des Tech-Milliardärs Elon Musk, in dem er fordert, die Entwicklung künstlicher Intelligenz für mindestens sechs Monate zu stoppen, hat bereits Hunderte namhafter Unterstützer und 27.000 weitere gefunden. Darunter Apple-Mitbegründer Steve Wozniak, Yoshua Bengio, der einst für seine Forschung zu künstlichen neuronalen Netzwerken und Deep Learning mit dem Turing Award ausgezeichnet wurde, sowie andere Unternehmer und Wissenschaftler aus der KI-Branche.
In dem Brief schreibt Musk fast dramatisch, dass das „gefährliche Rennen gestoppt werden muss“, und fordert die KI-Labore auf, „das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens sechs Monate auszusetzen. Diese Pause sollte öffentlich und überprüfbar sein und alle wichtigen Interessengruppen einbeziehen.“
Der Kern der Kritik, sagte er, seien die sogenannten Black-Box-Modelle, bei denen selbst die Entwickler nicht mehr nachvollziehen können, wie die Systeme zu ihren Ergebnissen kommen. Im Vergleich zu dieser eher nüchternen Forderung ist der Brief auch ziemlich polemisch und zeichnet stellenweise eine dystopische Zukunft. So heißt es beispielsweise an einer Stelle: „Sollen wir nichtmenschliche Intelligenzen entwickeln, die uns eines Tages zahlenmäßig übertreffen, uns überlisten, überflüssig machen und uns ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren?“
In dem Schreiben wird weiter kritisiert, insbesondere an KI-Systemen, die jetzt täuschend echte Fotos erzeugen können. So heißt es beispielsweise: „Die heutigen KI-Systeme werden bei allgemeinen Aufgaben immer wettbewerbsfähiger für Menschen, und wir müssen uns fragen: Sollten wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten? Sollen wir alle Aufgaben automatisieren, auch die, die sie erfüllen?“
Der offene Brief ist im Allgemeinen ein ziemlicher Angriff auf die KI-Forschung, insbesondere aber auf das Unternehmen OpenAI. Wie dieser Brief einzuordnen ist und was die eigentliche Motivation dahinter ist, bleibt umstritten. Elon Musk selbst war Mitbegründer des ursprünglich gemeinnützigen Unternehmens OpenAI.
Laut einem Bericht der Nachrichtenwebsite Semafor versuchte Musk, das Unternehmen zu übernehmen, aber nachdem er damit gescheitert war, stieg er aus. OpenAI ist derzeit der unangefochtene Marktführer, der Brief könnte auch nur eine Hoffnung sein, in diesem erbitterten Rennen unter KI-Unternehmen etwas Zeit zu gewinnen. Schließlich plant Musk wahrscheinlich, selbst eine konkurrierende KI auf den Markt zu bringen.
Der offene Brief, der bereits bestehende Berührungsängste mit technischen Innovationen schürt, könnte also ein verstecktes wirtschaftliches Eigeninteresse verfolgen. Aber selbst wenn nicht, ist der Brief generell ziemlich polemisch und mit Blick auf die vielen Unternehmer und Wissenschaftler aus der KI-Branche auch nicht sehr tiefgründig, was die technischen Aspekte angeht, was auch der CEO von OpenAI, Sven Altman, kritisiert.
Zweifellos ist es sinnvoll, sich eine Technologie, die so vielversprechend und breit einsetzbar ist, genauer anzusehen. Als Gesellschaft sollten wir uns also überlegen, wie wir die aufkommende KI so nutzen können, dass am Ende die Menschen die einzigen Nutznießer der Innovation sind. Und wie bei jeder größeren Innovation zuvor werden sich grundlegende ethische Fragen stellen. Aber wie sollte KI aus ethischer Sicht klassifiziert werden?
Natürlich werden solche Innovationen, die in der Öffentlichkeit stattfinden, schnell sind und Menschen betreffen, nicht nur gefeiert. Gerade im Fall der künstlichen Intelligenz gibt es innerhalb der Gesellschaft große Kritiker und auch Befürchtungen.
KI wird manchmal sogar als Bedrohung wahrgenommen. 35% der Amerikaner würden niemals ein selbstfahrendes Auto kaufen wollen. 60% der Verbraucher hätten Vorbehalte, Versicherungen über einen Chatbot abzuschließen.
Sehen wir uns eine Innovation an, die am Ende niemand will? Nach Angaben des Wirtschaftsforums wird der Einsatz von KI insgesamt 85 Millionen Arbeitsplätze überflüssig machen. Sind das die Befürchtungen von Branchenaußenstehenden und Kulturpessimisten?
Die Kritik an KI hat seit dem 22. März 2023 eine neue Dimension erreicht: Ein offener Brief des Tech-Milliardärs Elon Musk, in dem er fordert, die Entwicklung künstlicher Intelligenz für mindestens sechs Monate zu stoppen, hat bereits Hunderte namhafter Unterstützer und 27.000 weitere gefunden. Darunter Apple-Mitbegründer Steve Wozniak, Yoshua Bengio, der einst für seine Forschung zu künstlichen neuronalen Netzwerken und Deep Learning mit dem Turing Award ausgezeichnet wurde, sowie andere Unternehmer und Wissenschaftler aus der KI-Branche.
In dem Brief schreibt Musk fast dramatisch, dass das „gefährliche Rennen gestoppt werden muss“, und fordert die KI-Labore auf, „das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens sechs Monate auszusetzen. Diese Pause sollte öffentlich und überprüfbar sein und alle wichtigen Interessengruppen einbeziehen.“
Der Kern der Kritik, sagte er, seien die sogenannten Black-Box-Modelle, bei denen selbst die Entwickler nicht mehr nachvollziehen können, wie die Systeme zu ihren Ergebnissen kommen. Im Vergleich zu dieser eher nüchternen Forderung ist der Brief auch ziemlich polemisch und zeichnet stellenweise eine dystopische Zukunft. So heißt es beispielsweise an einer Stelle: „Sollen wir nichtmenschliche Intelligenzen entwickeln, die uns eines Tages zahlenmäßig übertreffen, uns überlisten, überflüssig machen und uns ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren?“
In dem Schreiben wird weiter kritisiert, insbesondere an KI-Systemen, die jetzt täuschend echte Fotos erzeugen können. So heißt es beispielsweise: „Die heutigen KI-Systeme werden bei allgemeinen Aufgaben immer wettbewerbsfähiger für Menschen, und wir müssen uns fragen: Sollten wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten? Sollen wir alle Aufgaben automatisieren, auch die, die sie erfüllen?“
Der offene Brief ist im Allgemeinen ein ziemlicher Angriff auf die KI-Forschung, insbesondere aber auf das Unternehmen OpenAI. Wie dieser Brief einzuordnen ist und was die eigentliche Motivation dahinter ist, bleibt umstritten. Elon Musk selbst war Mitbegründer des ursprünglich gemeinnützigen Unternehmens OpenAI.
Laut einem Bericht der Nachrichtenwebsite Semafor versuchte Musk, das Unternehmen zu übernehmen, aber nachdem er damit gescheitert war, stieg er aus. OpenAI ist derzeit der unangefochtene Marktführer, der Brief könnte auch nur eine Hoffnung sein, in diesem erbitterten Rennen unter KI-Unternehmen etwas Zeit zu gewinnen. Schließlich plant Musk wahrscheinlich, selbst eine konkurrierende KI auf den Markt zu bringen.
Der offene Brief, der bereits bestehende Berührungsängste mit technischen Innovationen schürt, könnte also ein verstecktes wirtschaftliches Eigeninteresse verfolgen. Aber selbst wenn nicht, ist der Brief generell ziemlich polemisch und mit Blick auf die vielen Unternehmer und Wissenschaftler aus der KI-Branche auch nicht sehr tiefgründig, was die technischen Aspekte angeht, was auch der CEO von OpenAI, Sven Altman, kritisiert.
Zweifellos ist es sinnvoll, sich eine Technologie, die so vielversprechend und breit einsetzbar ist, genauer anzusehen. Als Gesellschaft sollten wir uns also überlegen, wie wir die aufkommende KI so nutzen können, dass am Ende die Menschen die einzigen Nutznießer der Innovation sind. Und wie bei jeder größeren Innovation zuvor werden sich grundlegende ethische Fragen stellen. Aber wie sollte KI aus ethischer Sicht klassifiziert werden?
In immer mehr Artikeln liest man Forderungen nach einer Regulierung der KI nach ethischen Standards. Im März veröffentlichte der Deutsche Ethikrat eine 300-seitige Studie zum Verhältnis von Mensch und Maschine. Aber was sind ethische Standards und wie integriert man KI in unsere ethischen Grundkonzepte? Besitzt KI bereits eine moralische Fähigkeit? Ist sie sogar mehr als nur ein weiteres — zugegebenermaßen mächtiges — menschliches Werkzeug?
Die Ethik, abgeleitet von dem altgriechischen Wort thos (ωο) mit der Bedeutung „Charakter, Natur, Sitte, Gewohnheit“, ist — als solche erstmals von Aristoteles eingeführt — eine philosophische Disziplin. Es ist die Lehre oder Wissenschaft, die zwischen guten und bösen Handlungen unterscheidet. Sie ergründet moralische Fakten und bewertet (menschliche) Handlungen im Hinblick auf ihre moralische Richtigkeit.
Moral bezieht sich auf alle Normen (Ideale, Werte, Regeln oder Urteile), die das Handeln von Menschen oder Gesellschaften sowie die Reaktion mit Schuldgefühlen bei Verstößen gegen diese normativen Orientierungen regeln.
Nachdem Kant den Begriff der Moral zunächst auf das Gewissen des Einzelnen verengt hatte, unterscheidet man seit Hegel zwischen individueller Überzeugung — also Moral — und Moral, also den Regeln einer Gesellschaft, die in Recht und Verfassung festgeschrieben und historisch und kulturell bedingt sind. Daraus folgt, dass ethische Standards immer einen sozialen und historischen Kontext benötigen. Ethik aus unserer westlichen Sicht unterscheidet sich von Ethik aus arabischer oder asiatischer Sicht.
Die großen Studien zum ethischen Denken über KI drehen sich im Wesentlichen um die grundlegende Frage, ob KI überhaupt ein moralischer Akteur ist, und gehen dann auf Einzelfallszenarien ein, wie in welcher Situation möglichst gehandelt werden soll. Bisher fehlt ein allgemein gültiger Wegweiser. Welche Rolle spielt KI also in unserem ethischen Konstrukt?
Künstliche Intelligenz beschreibt Systeme, die in der Lage sind, menschliche Fähigkeiten wie logisches Denken, Planen, Lernen und Kreativität nachzuahmen. KI ermöglicht technischen Programmen und Systemen, Teile ihrer Umgebung wahrzunehmen, mit dem umzugehen, was sie wahrnehmen, und Probleme zu lösen, um ein bestimmtes Ziel zu erreichen.
Daten werden verarbeitet und verarbeitet. Genauer gesagt gibt es sogenannte Eingabedaten beliebiger Herkunft, die der Computer auf Basis eines ML-Algorithmus (symbolischer Arbeitsauftrag) verarbeitet, abschließend wird eine sogenannte Ausgabeentscheidung präsentiert, bei der es sich (zum Beispiel) um eine Ergebnisauswahl, ein einzelnes Ergebnis oder auch eine Aktion handeln kann.
Das Unterscheidungsmerkmal ist zweifellos die Vielseitigkeit der KI. Wobei nicht jedes KI-basierte System gleichermaßen leistungsfähig oder „intelligent“ ist. Je nach Anwendungsbereich ist KI zu mehr oder weniger fähig.
Grundsätzlich kann zwischen schwachen und starken KI-Systemen unterschieden werden. Das Ziel einer starken KI ist es, menschenähnliche oder übertreffende Fähigkeiten zu erreichen. In dieser Vision sollte sie menschliche, kognitive Fähigkeiten und sogar Emotionen besitzen. Des Weiteren unterscheidet man zwischen enger und breiter KI, je nachdem, wie groß das „Aktionsfeld“ der KI ist. Zum Beispiel operiert eine eingeschränkte KI nur in einem Bereich, während breite KI umfassenden Zugriff auf Datenquellen hat. Die Unterscheidung zwischen enger und breiter KI ist daher quantitativer Natur und zwischen schwacher und starker KI qualitativ. Überlegungen darüber, wie ein sozial akzeptabler Rahmen für KI geschaffen werden kann, müssen im Hinblick auf die Merkmale der KI angestellt werden. Angefangen bei Überlegungen darüber, auf welche Datenquellen sie zugreifen und diese verarbeiten dürfen, bis hin zum Grad der Entscheidungs- und Handlungsmacht, die ihnen eingeräumt wird und wie diese dann im Detail ausgestaltet wird.
Laut Psychologie ist menschliche Intelligenz dagegen in erster Linie ein konstruiertes, soziales Konstrukt, das je nach Kulturkreis unterschiedliche Bewertungsschwerpunkte hat. Uneinig sind sich die Forscher in der Frage, ob Intelligenz als eine einzelne Fähigkeit oder als Produkt mehrerer individueller Fähigkeiten zu betrachten ist.
Menschliche Intelligenz wird als Verstehen, Urteilen und Denken oder rationales Denken, zielorientiertes Handeln und effektive Interaktion mit der Umwelt beschrieben. Im Grunde kann es jedoch nur indirekt beobachtet werden. Wir messen die menschliche Intelligenz anhand konstruierter Situationen, in denen wir die Fähigkeit bewerten, Lösungen zu finden (IQ-Tests).
Die Rolle der Kreativität bei der Intelligenz muss auch im Hinblick auf die Vergleichbarkeit zwischen menschlicher und künstlicher Intelligenz betrachtet werden. Es wird zwischen konvergentem und divergentem Denken unterschieden. Wenn wir konvergent denken, suchen wir in Intelligenztests nach der einen — besten — Lösung, und wenn wir divergent denken, suchen wir nach mehreren einfallsreichen Lösungen.
Darüber hinaus wird dem Begriff Intelligenz heute immer mehr zugeschrieben, beispielsweise soziale und emotionale Intelligenz oder die Begriffe verkörperte, eingebettete, enaktive und erweiterte Kognition. Sie werden in der psychologischen und philosophischen Bewertung der Robotik angewendet und bewerten die Rolle des Körpers und der Umwelt von Robotersystemen.
Dementsprechend ist fraglich, inwieweit der Begriff Intelligenz überhaupt auf künstliche Intelligenz übertragen werden kann und ob er nicht eher als metaphorischer Begriff interpretiert werden sollte.
Alternativ könnte das Konzept der Vernunft die Fähigkeiten der KI umfassen und so Handlungsempfehlungen geben. Wir kennen den Begriff der Vernunft schon länger als den der Intelligenz, wobei Intelligenz ein Bestandteil der Vernunft ist.
Die Vernunft (lateinisch ratio, „Berechnung, Berechnung“) ist eine Art des Denkens, die es dem menschlichen Geist ermöglicht, seine Bezüge zur Realität zu organisieren. Es ist im Wesentlichen in theoretische und praktische Gründe unterteilt. Während die theoretische Vernunft, die sich auf den Erkenntnisgewinn bezieht, noch gewisse Parallelen zu KI-Systemen aufweist, ist die praktische Vernunft, die auf kohärentes, verantwortungsvolles Handeln abzielt, um ein gutes Leben zu ermöglichen, bereits heute nicht mehr anwendbar.
Zumindest die bisher verfügbaren KI-Systeme „verfügen nicht über die relevanten Fähigkeiten des Sinnverständnisses, der Intentionalität und des Bezugs auf eine außersprachliche Realität“.
Weder das Konzept der Intelligenz noch das Konzept der Vernunft können derzeit auf künstliche Intelligenz angewendet werden. Eine Intelligenz oder Vernunft, die der menschlichen ebenbürtig ist, ist daher nicht vorhanden. Könnte die moralische Fähigkeit der KI selbst jedoch aus anderen Umständen abgeleitet werden?
Um das Vorhandensein moralischer Fähigkeiten festzustellen, muss auch der Begriff der Verantwortung berücksichtigt werden. Es muss geklärt werden, welche Fähigkeiten oder Eigenschaften vorhanden sein müssen, um moralischer Akteur zu sein. Denn nur ein moralischer Akteur kann moralische Verantwortung und damit Personenstatus haben. In der Ethiklehre sind Personen moralische Akteure, aber nicht alle Menschen.
Ob KI eine Person im Sinne einer moralischen Fähigkeit ist, lässt sich anhand von Daniel Dennetts „Theorie der Person“ ermitteln. Obwohl Menschen der unausweichliche Ausgangspunkt für die Bestimmung des Status von Personen sind, beschränkt Dennett den Status einer „Person“ nicht nur auf Menschen, was im Hinblick auf die Bewertung nichtmenschlicher Akteure vernünftig erscheint.
Dennett verwendet drei Kriterien, um die Persönlichkeit zu bestimmen:
Intentionalität ist der subjektive Bewusstseinsakt, der auf ein Objekt gerichtet ist. Mit anderen Worten, sie umschreibt die Gefühlswahrnehmung von Objekten/Personen. Intentionalität auf der ersten Ebene bedeutet, dass man nur sich selbst wahrnimmt. Sobald man andere Akteure wahrnimmt, ist die zweite Ebene der Intentionalität erreicht und wenn man nun davon ausgeht, dass das als Akteur wahrgenommene Gegenüber sich selbst wiederum als Akteur wahrnimmt, ist die dritte Ebene der Intentionalität erreicht.
Sprachfähigkeit wiederum ist die Fähigkeit, mündlich zu kommunizieren. Im Prinzip bedeutet das, dass per se keine nichtmenschlichen Akteure in Frage kommen. Inzwischen ist die KI jedoch an dem Punkt angelangt, an dem sie dank NLP und Sprachsynthese genau diese verbale Kommunikation beherrscht und über eine Sprachfähigkeit verfügt.
Laut Dennett ist Selbstbewusstsein das bewusste Sein, also die Wahrnehmung von sich selbst als Lebewesen und die Möglichkeit, über sich selbst nachzudenken.
Darüber hinaus kann der freie Wille als Kriterium für moralische Fähigkeiten verwendet werden. Denn wer keine freien Entscheidungen trifft, kann sich auch nicht für die Handlungen rechtfertigen müssen. Der freie Wille ist der Intentionalität von Dennetts dritter Stufe fast ähnlich. Denn wer keinen geistigen Zustand der Selbstwahrnehmung hat, kann folglich nichts tun. Laut Aristoteles steht es ihm frei, ohne äußere oder innere Einschränkungen zu tun, was er will. Selbst Singularitätsfälle, bei denen die KI angeblich ihre eigenen Entscheidungen trifft, würden den freien Willen nicht bejahen, sofern er immer noch programmierten Zielen unterliegt, sei es Optimierung.
KI-Systeme sind also (bisher) nicht in der Lage, selbst nach der Personentheorie moralische Akteure zu sein, und man kann ihnen daher keine moralischen Rechte oder Pflichten übertragen.
In immer mehr Artikeln liest man Forderungen nach einer Regulierung der KI nach ethischen Standards. Im März veröffentlichte der Deutsche Ethikrat eine 300-seitige Studie zum Verhältnis von Mensch und Maschine. Aber was sind ethische Standards und wie integriert man KI in unsere ethischen Grundkonzepte? Besitzt KI bereits eine moralische Fähigkeit? Ist sie sogar mehr als nur ein weiteres — zugegebenermaßen mächtiges — menschliches Werkzeug?
Die Ethik, abgeleitet von dem altgriechischen Wort thos (ωο) mit der Bedeutung „Charakter, Natur, Sitte, Gewohnheit“, ist — als solche erstmals von Aristoteles eingeführt — eine philosophische Disziplin. Es ist die Lehre oder Wissenschaft, die zwischen guten und bösen Handlungen unterscheidet. Sie ergründet moralische Fakten und bewertet (menschliche) Handlungen im Hinblick auf ihre moralische Richtigkeit.
Moral bezieht sich auf alle Normen (Ideale, Werte, Regeln oder Urteile), die das Handeln von Menschen oder Gesellschaften sowie die Reaktion mit Schuldgefühlen bei Verstößen gegen diese normativen Orientierungen regeln.
Nachdem Kant den Begriff der Moral zunächst auf das Gewissen des Einzelnen verengt hatte, unterscheidet man seit Hegel zwischen individueller Überzeugung — also Moral — und Moral, also den Regeln einer Gesellschaft, die in Recht und Verfassung festgeschrieben und historisch und kulturell bedingt sind. Daraus folgt, dass ethische Standards immer einen sozialen und historischen Kontext benötigen. Ethik aus unserer westlichen Sicht unterscheidet sich von Ethik aus arabischer oder asiatischer Sicht.
Die großen Studien zum ethischen Denken über KI drehen sich im Wesentlichen um die grundlegende Frage, ob KI überhaupt ein moralischer Akteur ist, und gehen dann auf Einzelfallszenarien ein, wie in welcher Situation möglichst gehandelt werden soll. Bisher fehlt ein allgemein gültiger Wegweiser. Welche Rolle spielt KI also in unserem ethischen Konstrukt?
Künstliche Intelligenz beschreibt Systeme, die in der Lage sind, menschliche Fähigkeiten wie logisches Denken, Planen, Lernen und Kreativität nachzuahmen. KI ermöglicht technischen Programmen und Systemen, Teile ihrer Umgebung wahrzunehmen, mit dem umzugehen, was sie wahrnehmen, und Probleme zu lösen, um ein bestimmtes Ziel zu erreichen.
Daten werden verarbeitet und verarbeitet. Genauer gesagt gibt es sogenannte Eingabedaten beliebiger Herkunft, die der Computer auf Basis eines ML-Algorithmus (symbolischer Arbeitsauftrag) verarbeitet, abschließend wird eine sogenannte Ausgabeentscheidung präsentiert, bei der es sich (zum Beispiel) um eine Ergebnisauswahl, ein einzelnes Ergebnis oder auch eine Aktion handeln kann.
Das Unterscheidungsmerkmal ist zweifellos die Vielseitigkeit der KI. Wobei nicht jedes KI-basierte System gleichermaßen leistungsfähig oder „intelligent“ ist. Je nach Anwendungsbereich ist KI zu mehr oder weniger fähig.
Grundsätzlich kann zwischen schwachen und starken KI-Systemen unterschieden werden. Das Ziel einer starken KI ist es, menschenähnliche oder übertreffende Fähigkeiten zu erreichen. In dieser Vision sollte sie menschliche, kognitive Fähigkeiten und sogar Emotionen besitzen. Des Weiteren unterscheidet man zwischen enger und breiter KI, je nachdem, wie groß das „Aktionsfeld“ der KI ist. Zum Beispiel operiert eine eingeschränkte KI nur in einem Bereich, während breite KI umfassenden Zugriff auf Datenquellen hat. Die Unterscheidung zwischen enger und breiter KI ist daher quantitativer Natur und zwischen schwacher und starker KI qualitativ. Überlegungen darüber, wie ein sozial akzeptabler Rahmen für KI geschaffen werden kann, müssen im Hinblick auf die Merkmale der KI angestellt werden. Angefangen bei Überlegungen darüber, auf welche Datenquellen sie zugreifen und diese verarbeiten dürfen, bis hin zum Grad der Entscheidungs- und Handlungsmacht, die ihnen eingeräumt wird und wie diese dann im Detail ausgestaltet wird.
Laut Psychologie ist menschliche Intelligenz dagegen in erster Linie ein konstruiertes, soziales Konstrukt, das je nach Kulturkreis unterschiedliche Bewertungsschwerpunkte hat. Uneinig sind sich die Forscher in der Frage, ob Intelligenz als eine einzelne Fähigkeit oder als Produkt mehrerer individueller Fähigkeiten zu betrachten ist.
Menschliche Intelligenz wird als Verstehen, Urteilen und Denken oder rationales Denken, zielorientiertes Handeln und effektive Interaktion mit der Umwelt beschrieben. Im Grunde kann es jedoch nur indirekt beobachtet werden. Wir messen die menschliche Intelligenz anhand konstruierter Situationen, in denen wir die Fähigkeit bewerten, Lösungen zu finden (IQ-Tests).
Die Rolle der Kreativität bei der Intelligenz muss auch im Hinblick auf die Vergleichbarkeit zwischen menschlicher und künstlicher Intelligenz betrachtet werden. Es wird zwischen konvergentem und divergentem Denken unterschieden. Wenn wir konvergent denken, suchen wir in Intelligenztests nach der einen — besten — Lösung, und wenn wir divergent denken, suchen wir nach mehreren einfallsreichen Lösungen.
Darüber hinaus wird dem Begriff Intelligenz heute immer mehr zugeschrieben, beispielsweise soziale und emotionale Intelligenz oder die Begriffe verkörperte, eingebettete, enaktive und erweiterte Kognition. Sie werden in der psychologischen und philosophischen Bewertung der Robotik angewendet und bewerten die Rolle des Körpers und der Umwelt von Robotersystemen.
Dementsprechend ist fraglich, inwieweit der Begriff Intelligenz überhaupt auf künstliche Intelligenz übertragen werden kann und ob er nicht eher als metaphorischer Begriff interpretiert werden sollte.
Alternativ könnte das Konzept der Vernunft die Fähigkeiten der KI umfassen und so Handlungsempfehlungen geben. Wir kennen den Begriff der Vernunft schon länger als den der Intelligenz, wobei Intelligenz ein Bestandteil der Vernunft ist.
Die Vernunft (lateinisch ratio, „Berechnung, Berechnung“) ist eine Art des Denkens, die es dem menschlichen Geist ermöglicht, seine Bezüge zur Realität zu organisieren. Es ist im Wesentlichen in theoretische und praktische Gründe unterteilt. Während die theoretische Vernunft, die sich auf den Erkenntnisgewinn bezieht, noch gewisse Parallelen zu KI-Systemen aufweist, ist die praktische Vernunft, die auf kohärentes, verantwortungsvolles Handeln abzielt, um ein gutes Leben zu ermöglichen, bereits heute nicht mehr anwendbar.
Zumindest die bisher verfügbaren KI-Systeme „verfügen nicht über die relevanten Fähigkeiten des Sinnverständnisses, der Intentionalität und des Bezugs auf eine außersprachliche Realität“.
Weder das Konzept der Intelligenz noch das Konzept der Vernunft können derzeit auf künstliche Intelligenz angewendet werden. Eine Intelligenz oder Vernunft, die der menschlichen ebenbürtig ist, ist daher nicht vorhanden. Könnte die moralische Fähigkeit der KI selbst jedoch aus anderen Umständen abgeleitet werden?
Um das Vorhandensein moralischer Fähigkeiten festzustellen, muss auch der Begriff der Verantwortung berücksichtigt werden. Es muss geklärt werden, welche Fähigkeiten oder Eigenschaften vorhanden sein müssen, um moralischer Akteur zu sein. Denn nur ein moralischer Akteur kann moralische Verantwortung und damit Personenstatus haben. In der Ethiklehre sind Personen moralische Akteure, aber nicht alle Menschen.
Ob KI eine Person im Sinne einer moralischen Fähigkeit ist, lässt sich anhand von Daniel Dennetts „Theorie der Person“ ermitteln. Obwohl Menschen der unausweichliche Ausgangspunkt für die Bestimmung des Status von Personen sind, beschränkt Dennett den Status einer „Person“ nicht nur auf Menschen, was im Hinblick auf die Bewertung nichtmenschlicher Akteure vernünftig erscheint.
Dennett verwendet drei Kriterien, um die Persönlichkeit zu bestimmen:
Intentionalität ist der subjektive Bewusstseinsakt, der auf ein Objekt gerichtet ist. Mit anderen Worten, sie umschreibt die Gefühlswahrnehmung von Objekten/Personen. Intentionalität auf der ersten Ebene bedeutet, dass man nur sich selbst wahrnimmt. Sobald man andere Akteure wahrnimmt, ist die zweite Ebene der Intentionalität erreicht und wenn man nun davon ausgeht, dass das als Akteur wahrgenommene Gegenüber sich selbst wiederum als Akteur wahrnimmt, ist die dritte Ebene der Intentionalität erreicht.
Sprachfähigkeit wiederum ist die Fähigkeit, mündlich zu kommunizieren. Im Prinzip bedeutet das, dass per se keine nichtmenschlichen Akteure in Frage kommen. Inzwischen ist die KI jedoch an dem Punkt angelangt, an dem sie dank NLP und Sprachsynthese genau diese verbale Kommunikation beherrscht und über eine Sprachfähigkeit verfügt.
Laut Dennett ist Selbstbewusstsein das bewusste Sein, also die Wahrnehmung von sich selbst als Lebewesen und die Möglichkeit, über sich selbst nachzudenken.
Darüber hinaus kann der freie Wille als Kriterium für moralische Fähigkeiten verwendet werden. Denn wer keine freien Entscheidungen trifft, kann sich auch nicht für die Handlungen rechtfertigen müssen. Der freie Wille ist der Intentionalität von Dennetts dritter Stufe fast ähnlich. Denn wer keinen geistigen Zustand der Selbstwahrnehmung hat, kann folglich nichts tun. Laut Aristoteles steht es ihm frei, ohne äußere oder innere Einschränkungen zu tun, was er will. Selbst Singularitätsfälle, bei denen die KI angeblich ihre eigenen Entscheidungen trifft, würden den freien Willen nicht bejahen, sofern er immer noch programmierten Zielen unterliegt, sei es Optimierung.
KI-Systeme sind also (bisher) nicht in der Lage, selbst nach der Personentheorie moralische Akteure zu sein, und man kann ihnen daher keine moralischen Rechte oder Pflichten übertragen.
In immer mehr Artikeln liest man Forderungen nach einer Regulierung der KI nach ethischen Standards. Im März veröffentlichte der Deutsche Ethikrat eine 300-seitige Studie zum Verhältnis von Mensch und Maschine. Aber was sind ethische Standards und wie integriert man KI in unsere ethischen Grundkonzepte? Besitzt KI bereits eine moralische Fähigkeit? Ist sie sogar mehr als nur ein weiteres — zugegebenermaßen mächtiges — menschliches Werkzeug?
Die Ethik, abgeleitet von dem altgriechischen Wort thos (ωο) mit der Bedeutung „Charakter, Natur, Sitte, Gewohnheit“, ist — als solche erstmals von Aristoteles eingeführt — eine philosophische Disziplin. Es ist die Lehre oder Wissenschaft, die zwischen guten und bösen Handlungen unterscheidet. Sie ergründet moralische Fakten und bewertet (menschliche) Handlungen im Hinblick auf ihre moralische Richtigkeit.
Moral bezieht sich auf alle Normen (Ideale, Werte, Regeln oder Urteile), die das Handeln von Menschen oder Gesellschaften sowie die Reaktion mit Schuldgefühlen bei Verstößen gegen diese normativen Orientierungen regeln.
Nachdem Kant den Begriff der Moral zunächst auf das Gewissen des Einzelnen verengt hatte, unterscheidet man seit Hegel zwischen individueller Überzeugung — also Moral — und Moral, also den Regeln einer Gesellschaft, die in Recht und Verfassung festgeschrieben und historisch und kulturell bedingt sind. Daraus folgt, dass ethische Standards immer einen sozialen und historischen Kontext benötigen. Ethik aus unserer westlichen Sicht unterscheidet sich von Ethik aus arabischer oder asiatischer Sicht.
Die großen Studien zum ethischen Denken über KI drehen sich im Wesentlichen um die grundlegende Frage, ob KI überhaupt ein moralischer Akteur ist, und gehen dann auf Einzelfallszenarien ein, wie in welcher Situation möglichst gehandelt werden soll. Bisher fehlt ein allgemein gültiger Wegweiser. Welche Rolle spielt KI also in unserem ethischen Konstrukt?
Künstliche Intelligenz beschreibt Systeme, die in der Lage sind, menschliche Fähigkeiten wie logisches Denken, Planen, Lernen und Kreativität nachzuahmen. KI ermöglicht technischen Programmen und Systemen, Teile ihrer Umgebung wahrzunehmen, mit dem umzugehen, was sie wahrnehmen, und Probleme zu lösen, um ein bestimmtes Ziel zu erreichen.
Daten werden verarbeitet und verarbeitet. Genauer gesagt gibt es sogenannte Eingabedaten beliebiger Herkunft, die der Computer auf Basis eines ML-Algorithmus (symbolischer Arbeitsauftrag) verarbeitet, abschließend wird eine sogenannte Ausgabeentscheidung präsentiert, bei der es sich (zum Beispiel) um eine Ergebnisauswahl, ein einzelnes Ergebnis oder auch eine Aktion handeln kann.
Das Unterscheidungsmerkmal ist zweifellos die Vielseitigkeit der KI. Wobei nicht jedes KI-basierte System gleichermaßen leistungsfähig oder „intelligent“ ist. Je nach Anwendungsbereich ist KI zu mehr oder weniger fähig.
Grundsätzlich kann zwischen schwachen und starken KI-Systemen unterschieden werden. Das Ziel einer starken KI ist es, menschenähnliche oder übertreffende Fähigkeiten zu erreichen. In dieser Vision sollte sie menschliche, kognitive Fähigkeiten und sogar Emotionen besitzen. Des Weiteren unterscheidet man zwischen enger und breiter KI, je nachdem, wie groß das „Aktionsfeld“ der KI ist. Zum Beispiel operiert eine eingeschränkte KI nur in einem Bereich, während breite KI umfassenden Zugriff auf Datenquellen hat. Die Unterscheidung zwischen enger und breiter KI ist daher quantitativer Natur und zwischen schwacher und starker KI qualitativ. Überlegungen darüber, wie ein sozial akzeptabler Rahmen für KI geschaffen werden kann, müssen im Hinblick auf die Merkmale der KI angestellt werden. Angefangen bei Überlegungen darüber, auf welche Datenquellen sie zugreifen und diese verarbeiten dürfen, bis hin zum Grad der Entscheidungs- und Handlungsmacht, die ihnen eingeräumt wird und wie diese dann im Detail ausgestaltet wird.
Laut Psychologie ist menschliche Intelligenz dagegen in erster Linie ein konstruiertes, soziales Konstrukt, das je nach Kulturkreis unterschiedliche Bewertungsschwerpunkte hat. Uneinig sind sich die Forscher in der Frage, ob Intelligenz als eine einzelne Fähigkeit oder als Produkt mehrerer individueller Fähigkeiten zu betrachten ist.
Menschliche Intelligenz wird als Verstehen, Urteilen und Denken oder rationales Denken, zielorientiertes Handeln und effektive Interaktion mit der Umwelt beschrieben. Im Grunde kann es jedoch nur indirekt beobachtet werden. Wir messen die menschliche Intelligenz anhand konstruierter Situationen, in denen wir die Fähigkeit bewerten, Lösungen zu finden (IQ-Tests).
Die Rolle der Kreativität bei der Intelligenz muss auch im Hinblick auf die Vergleichbarkeit zwischen menschlicher und künstlicher Intelligenz betrachtet werden. Es wird zwischen konvergentem und divergentem Denken unterschieden. Wenn wir konvergent denken, suchen wir in Intelligenztests nach der einen — besten — Lösung, und wenn wir divergent denken, suchen wir nach mehreren einfallsreichen Lösungen.
Darüber hinaus wird dem Begriff Intelligenz heute immer mehr zugeschrieben, beispielsweise soziale und emotionale Intelligenz oder die Begriffe verkörperte, eingebettete, enaktive und erweiterte Kognition. Sie werden in der psychologischen und philosophischen Bewertung der Robotik angewendet und bewerten die Rolle des Körpers und der Umwelt von Robotersystemen.
Dementsprechend ist fraglich, inwieweit der Begriff Intelligenz überhaupt auf künstliche Intelligenz übertragen werden kann und ob er nicht eher als metaphorischer Begriff interpretiert werden sollte.
Alternativ könnte das Konzept der Vernunft die Fähigkeiten der KI umfassen und so Handlungsempfehlungen geben. Wir kennen den Begriff der Vernunft schon länger als den der Intelligenz, wobei Intelligenz ein Bestandteil der Vernunft ist.
Die Vernunft (lateinisch ratio, „Berechnung, Berechnung“) ist eine Art des Denkens, die es dem menschlichen Geist ermöglicht, seine Bezüge zur Realität zu organisieren. Es ist im Wesentlichen in theoretische und praktische Gründe unterteilt. Während die theoretische Vernunft, die sich auf den Erkenntnisgewinn bezieht, noch gewisse Parallelen zu KI-Systemen aufweist, ist die praktische Vernunft, die auf kohärentes, verantwortungsvolles Handeln abzielt, um ein gutes Leben zu ermöglichen, bereits heute nicht mehr anwendbar.
Zumindest die bisher verfügbaren KI-Systeme „verfügen nicht über die relevanten Fähigkeiten des Sinnverständnisses, der Intentionalität und des Bezugs auf eine außersprachliche Realität“.
Weder das Konzept der Intelligenz noch das Konzept der Vernunft können derzeit auf künstliche Intelligenz angewendet werden. Eine Intelligenz oder Vernunft, die der menschlichen ebenbürtig ist, ist daher nicht vorhanden. Könnte die moralische Fähigkeit der KI selbst jedoch aus anderen Umständen abgeleitet werden?
Um das Vorhandensein moralischer Fähigkeiten festzustellen, muss auch der Begriff der Verantwortung berücksichtigt werden. Es muss geklärt werden, welche Fähigkeiten oder Eigenschaften vorhanden sein müssen, um moralischer Akteur zu sein. Denn nur ein moralischer Akteur kann moralische Verantwortung und damit Personenstatus haben. In der Ethiklehre sind Personen moralische Akteure, aber nicht alle Menschen.
Ob KI eine Person im Sinne einer moralischen Fähigkeit ist, lässt sich anhand von Daniel Dennetts „Theorie der Person“ ermitteln. Obwohl Menschen der unausweichliche Ausgangspunkt für die Bestimmung des Status von Personen sind, beschränkt Dennett den Status einer „Person“ nicht nur auf Menschen, was im Hinblick auf die Bewertung nichtmenschlicher Akteure vernünftig erscheint.
Dennett verwendet drei Kriterien, um die Persönlichkeit zu bestimmen:
Intentionalität ist der subjektive Bewusstseinsakt, der auf ein Objekt gerichtet ist. Mit anderen Worten, sie umschreibt die Gefühlswahrnehmung von Objekten/Personen. Intentionalität auf der ersten Ebene bedeutet, dass man nur sich selbst wahrnimmt. Sobald man andere Akteure wahrnimmt, ist die zweite Ebene der Intentionalität erreicht und wenn man nun davon ausgeht, dass das als Akteur wahrgenommene Gegenüber sich selbst wiederum als Akteur wahrnimmt, ist die dritte Ebene der Intentionalität erreicht.
Sprachfähigkeit wiederum ist die Fähigkeit, mündlich zu kommunizieren. Im Prinzip bedeutet das, dass per se keine nichtmenschlichen Akteure in Frage kommen. Inzwischen ist die KI jedoch an dem Punkt angelangt, an dem sie dank NLP und Sprachsynthese genau diese verbale Kommunikation beherrscht und über eine Sprachfähigkeit verfügt.
Laut Dennett ist Selbstbewusstsein das bewusste Sein, also die Wahrnehmung von sich selbst als Lebewesen und die Möglichkeit, über sich selbst nachzudenken.
Darüber hinaus kann der freie Wille als Kriterium für moralische Fähigkeiten verwendet werden. Denn wer keine freien Entscheidungen trifft, kann sich auch nicht für die Handlungen rechtfertigen müssen. Der freie Wille ist der Intentionalität von Dennetts dritter Stufe fast ähnlich. Denn wer keinen geistigen Zustand der Selbstwahrnehmung hat, kann folglich nichts tun. Laut Aristoteles steht es ihm frei, ohne äußere oder innere Einschränkungen zu tun, was er will. Selbst Singularitätsfälle, bei denen die KI angeblich ihre eigenen Entscheidungen trifft, würden den freien Willen nicht bejahen, sofern er immer noch programmierten Zielen unterliegt, sei es Optimierung.
KI-Systeme sind also (bisher) nicht in der Lage, selbst nach der Personentheorie moralische Akteure zu sein, und man kann ihnen daher keine moralischen Rechte oder Pflichten übertragen.
In immer mehr Artikeln liest man Forderungen nach einer Regulierung der KI nach ethischen Standards. Im März veröffentlichte der Deutsche Ethikrat eine 300-seitige Studie zum Verhältnis von Mensch und Maschine. Aber was sind ethische Standards und wie integriert man KI in unsere ethischen Grundkonzepte? Besitzt KI bereits eine moralische Fähigkeit? Ist sie sogar mehr als nur ein weiteres — zugegebenermaßen mächtiges — menschliches Werkzeug?
Die Ethik, abgeleitet von dem altgriechischen Wort thos (ωο) mit der Bedeutung „Charakter, Natur, Sitte, Gewohnheit“, ist — als solche erstmals von Aristoteles eingeführt — eine philosophische Disziplin. Es ist die Lehre oder Wissenschaft, die zwischen guten und bösen Handlungen unterscheidet. Sie ergründet moralische Fakten und bewertet (menschliche) Handlungen im Hinblick auf ihre moralische Richtigkeit.
Moral bezieht sich auf alle Normen (Ideale, Werte, Regeln oder Urteile), die das Handeln von Menschen oder Gesellschaften sowie die Reaktion mit Schuldgefühlen bei Verstößen gegen diese normativen Orientierungen regeln.
Nachdem Kant den Begriff der Moral zunächst auf das Gewissen des Einzelnen verengt hatte, unterscheidet man seit Hegel zwischen individueller Überzeugung — also Moral — und Moral, also den Regeln einer Gesellschaft, die in Recht und Verfassung festgeschrieben und historisch und kulturell bedingt sind. Daraus folgt, dass ethische Standards immer einen sozialen und historischen Kontext benötigen. Ethik aus unserer westlichen Sicht unterscheidet sich von Ethik aus arabischer oder asiatischer Sicht.
Die großen Studien zum ethischen Denken über KI drehen sich im Wesentlichen um die grundlegende Frage, ob KI überhaupt ein moralischer Akteur ist, und gehen dann auf Einzelfallszenarien ein, wie in welcher Situation möglichst gehandelt werden soll. Bisher fehlt ein allgemein gültiger Wegweiser. Welche Rolle spielt KI also in unserem ethischen Konstrukt?
Künstliche Intelligenz beschreibt Systeme, die in der Lage sind, menschliche Fähigkeiten wie logisches Denken, Planen, Lernen und Kreativität nachzuahmen. KI ermöglicht technischen Programmen und Systemen, Teile ihrer Umgebung wahrzunehmen, mit dem umzugehen, was sie wahrnehmen, und Probleme zu lösen, um ein bestimmtes Ziel zu erreichen.
Daten werden verarbeitet und verarbeitet. Genauer gesagt gibt es sogenannte Eingabedaten beliebiger Herkunft, die der Computer auf Basis eines ML-Algorithmus (symbolischer Arbeitsauftrag) verarbeitet, abschließend wird eine sogenannte Ausgabeentscheidung präsentiert, bei der es sich (zum Beispiel) um eine Ergebnisauswahl, ein einzelnes Ergebnis oder auch eine Aktion handeln kann.
Das Unterscheidungsmerkmal ist zweifellos die Vielseitigkeit der KI. Wobei nicht jedes KI-basierte System gleichermaßen leistungsfähig oder „intelligent“ ist. Je nach Anwendungsbereich ist KI zu mehr oder weniger fähig.
Grundsätzlich kann zwischen schwachen und starken KI-Systemen unterschieden werden. Das Ziel einer starken KI ist es, menschenähnliche oder übertreffende Fähigkeiten zu erreichen. In dieser Vision sollte sie menschliche, kognitive Fähigkeiten und sogar Emotionen besitzen. Des Weiteren unterscheidet man zwischen enger und breiter KI, je nachdem, wie groß das „Aktionsfeld“ der KI ist. Zum Beispiel operiert eine eingeschränkte KI nur in einem Bereich, während breite KI umfassenden Zugriff auf Datenquellen hat. Die Unterscheidung zwischen enger und breiter KI ist daher quantitativer Natur und zwischen schwacher und starker KI qualitativ. Überlegungen darüber, wie ein sozial akzeptabler Rahmen für KI geschaffen werden kann, müssen im Hinblick auf die Merkmale der KI angestellt werden. Angefangen bei Überlegungen darüber, auf welche Datenquellen sie zugreifen und diese verarbeiten dürfen, bis hin zum Grad der Entscheidungs- und Handlungsmacht, die ihnen eingeräumt wird und wie diese dann im Detail ausgestaltet wird.
Laut Psychologie ist menschliche Intelligenz dagegen in erster Linie ein konstruiertes, soziales Konstrukt, das je nach Kulturkreis unterschiedliche Bewertungsschwerpunkte hat. Uneinig sind sich die Forscher in der Frage, ob Intelligenz als eine einzelne Fähigkeit oder als Produkt mehrerer individueller Fähigkeiten zu betrachten ist.
Menschliche Intelligenz wird als Verstehen, Urteilen und Denken oder rationales Denken, zielorientiertes Handeln und effektive Interaktion mit der Umwelt beschrieben. Im Grunde kann es jedoch nur indirekt beobachtet werden. Wir messen die menschliche Intelligenz anhand konstruierter Situationen, in denen wir die Fähigkeit bewerten, Lösungen zu finden (IQ-Tests).
Die Rolle der Kreativität bei der Intelligenz muss auch im Hinblick auf die Vergleichbarkeit zwischen menschlicher und künstlicher Intelligenz betrachtet werden. Es wird zwischen konvergentem und divergentem Denken unterschieden. Wenn wir konvergent denken, suchen wir in Intelligenztests nach der einen — besten — Lösung, und wenn wir divergent denken, suchen wir nach mehreren einfallsreichen Lösungen.
Darüber hinaus wird dem Begriff Intelligenz heute immer mehr zugeschrieben, beispielsweise soziale und emotionale Intelligenz oder die Begriffe verkörperte, eingebettete, enaktive und erweiterte Kognition. Sie werden in der psychologischen und philosophischen Bewertung der Robotik angewendet und bewerten die Rolle des Körpers und der Umwelt von Robotersystemen.
Dementsprechend ist fraglich, inwieweit der Begriff Intelligenz überhaupt auf künstliche Intelligenz übertragen werden kann und ob er nicht eher als metaphorischer Begriff interpretiert werden sollte.
Alternativ könnte das Konzept der Vernunft die Fähigkeiten der KI umfassen und so Handlungsempfehlungen geben. Wir kennen den Begriff der Vernunft schon länger als den der Intelligenz, wobei Intelligenz ein Bestandteil der Vernunft ist.
Die Vernunft (lateinisch ratio, „Berechnung, Berechnung“) ist eine Art des Denkens, die es dem menschlichen Geist ermöglicht, seine Bezüge zur Realität zu organisieren. Es ist im Wesentlichen in theoretische und praktische Gründe unterteilt. Während die theoretische Vernunft, die sich auf den Erkenntnisgewinn bezieht, noch gewisse Parallelen zu KI-Systemen aufweist, ist die praktische Vernunft, die auf kohärentes, verantwortungsvolles Handeln abzielt, um ein gutes Leben zu ermöglichen, bereits heute nicht mehr anwendbar.
Zumindest die bisher verfügbaren KI-Systeme „verfügen nicht über die relevanten Fähigkeiten des Sinnverständnisses, der Intentionalität und des Bezugs auf eine außersprachliche Realität“.
Weder das Konzept der Intelligenz noch das Konzept der Vernunft können derzeit auf künstliche Intelligenz angewendet werden. Eine Intelligenz oder Vernunft, die der menschlichen ebenbürtig ist, ist daher nicht vorhanden. Könnte die moralische Fähigkeit der KI selbst jedoch aus anderen Umständen abgeleitet werden?
Um das Vorhandensein moralischer Fähigkeiten festzustellen, muss auch der Begriff der Verantwortung berücksichtigt werden. Es muss geklärt werden, welche Fähigkeiten oder Eigenschaften vorhanden sein müssen, um moralischer Akteur zu sein. Denn nur ein moralischer Akteur kann moralische Verantwortung und damit Personenstatus haben. In der Ethiklehre sind Personen moralische Akteure, aber nicht alle Menschen.
Ob KI eine Person im Sinne einer moralischen Fähigkeit ist, lässt sich anhand von Daniel Dennetts „Theorie der Person“ ermitteln. Obwohl Menschen der unausweichliche Ausgangspunkt für die Bestimmung des Status von Personen sind, beschränkt Dennett den Status einer „Person“ nicht nur auf Menschen, was im Hinblick auf die Bewertung nichtmenschlicher Akteure vernünftig erscheint.
Dennett verwendet drei Kriterien, um die Persönlichkeit zu bestimmen:
Intentionalität ist der subjektive Bewusstseinsakt, der auf ein Objekt gerichtet ist. Mit anderen Worten, sie umschreibt die Gefühlswahrnehmung von Objekten/Personen. Intentionalität auf der ersten Ebene bedeutet, dass man nur sich selbst wahrnimmt. Sobald man andere Akteure wahrnimmt, ist die zweite Ebene der Intentionalität erreicht und wenn man nun davon ausgeht, dass das als Akteur wahrgenommene Gegenüber sich selbst wiederum als Akteur wahrnimmt, ist die dritte Ebene der Intentionalität erreicht.
Sprachfähigkeit wiederum ist die Fähigkeit, mündlich zu kommunizieren. Im Prinzip bedeutet das, dass per se keine nichtmenschlichen Akteure in Frage kommen. Inzwischen ist die KI jedoch an dem Punkt angelangt, an dem sie dank NLP und Sprachsynthese genau diese verbale Kommunikation beherrscht und über eine Sprachfähigkeit verfügt.
Laut Dennett ist Selbstbewusstsein das bewusste Sein, also die Wahrnehmung von sich selbst als Lebewesen und die Möglichkeit, über sich selbst nachzudenken.
Darüber hinaus kann der freie Wille als Kriterium für moralische Fähigkeiten verwendet werden. Denn wer keine freien Entscheidungen trifft, kann sich auch nicht für die Handlungen rechtfertigen müssen. Der freie Wille ist der Intentionalität von Dennetts dritter Stufe fast ähnlich. Denn wer keinen geistigen Zustand der Selbstwahrnehmung hat, kann folglich nichts tun. Laut Aristoteles steht es ihm frei, ohne äußere oder innere Einschränkungen zu tun, was er will. Selbst Singularitätsfälle, bei denen die KI angeblich ihre eigenen Entscheidungen trifft, würden den freien Willen nicht bejahen, sofern er immer noch programmierten Zielen unterliegt, sei es Optimierung.
KI-Systeme sind also (bisher) nicht in der Lage, selbst nach der Personentheorie moralische Akteure zu sein, und man kann ihnen daher keine moralischen Rechte oder Pflichten übertragen.
In immer mehr Artikeln liest man Forderungen nach einer Regulierung der KI nach ethischen Standards. Im März veröffentlichte der Deutsche Ethikrat eine 300-seitige Studie zum Verhältnis von Mensch und Maschine. Aber was sind ethische Standards und wie integriert man KI in unsere ethischen Grundkonzepte? Besitzt KI bereits eine moralische Fähigkeit? Ist sie sogar mehr als nur ein weiteres — zugegebenermaßen mächtiges — menschliches Werkzeug?
Die Ethik, abgeleitet von dem altgriechischen Wort thos (ωο) mit der Bedeutung „Charakter, Natur, Sitte, Gewohnheit“, ist — als solche erstmals von Aristoteles eingeführt — eine philosophische Disziplin. Es ist die Lehre oder Wissenschaft, die zwischen guten und bösen Handlungen unterscheidet. Sie ergründet moralische Fakten und bewertet (menschliche) Handlungen im Hinblick auf ihre moralische Richtigkeit.
Moral bezieht sich auf alle Normen (Ideale, Werte, Regeln oder Urteile), die das Handeln von Menschen oder Gesellschaften sowie die Reaktion mit Schuldgefühlen bei Verstößen gegen diese normativen Orientierungen regeln.
Nachdem Kant den Begriff der Moral zunächst auf das Gewissen des Einzelnen verengt hatte, unterscheidet man seit Hegel zwischen individueller Überzeugung — also Moral — und Moral, also den Regeln einer Gesellschaft, die in Recht und Verfassung festgeschrieben und historisch und kulturell bedingt sind. Daraus folgt, dass ethische Standards immer einen sozialen und historischen Kontext benötigen. Ethik aus unserer westlichen Sicht unterscheidet sich von Ethik aus arabischer oder asiatischer Sicht.
Die großen Studien zum ethischen Denken über KI drehen sich im Wesentlichen um die grundlegende Frage, ob KI überhaupt ein moralischer Akteur ist, und gehen dann auf Einzelfallszenarien ein, wie in welcher Situation möglichst gehandelt werden soll. Bisher fehlt ein allgemein gültiger Wegweiser. Welche Rolle spielt KI also in unserem ethischen Konstrukt?
Künstliche Intelligenz beschreibt Systeme, die in der Lage sind, menschliche Fähigkeiten wie logisches Denken, Planen, Lernen und Kreativität nachzuahmen. KI ermöglicht technischen Programmen und Systemen, Teile ihrer Umgebung wahrzunehmen, mit dem umzugehen, was sie wahrnehmen, und Probleme zu lösen, um ein bestimmtes Ziel zu erreichen.
Daten werden verarbeitet und verarbeitet. Genauer gesagt gibt es sogenannte Eingabedaten beliebiger Herkunft, die der Computer auf Basis eines ML-Algorithmus (symbolischer Arbeitsauftrag) verarbeitet, abschließend wird eine sogenannte Ausgabeentscheidung präsentiert, bei der es sich (zum Beispiel) um eine Ergebnisauswahl, ein einzelnes Ergebnis oder auch eine Aktion handeln kann.
Das Unterscheidungsmerkmal ist zweifellos die Vielseitigkeit der KI. Wobei nicht jedes KI-basierte System gleichermaßen leistungsfähig oder „intelligent“ ist. Je nach Anwendungsbereich ist KI zu mehr oder weniger fähig.
Grundsätzlich kann zwischen schwachen und starken KI-Systemen unterschieden werden. Das Ziel einer starken KI ist es, menschenähnliche oder übertreffende Fähigkeiten zu erreichen. In dieser Vision sollte sie menschliche, kognitive Fähigkeiten und sogar Emotionen besitzen. Des Weiteren unterscheidet man zwischen enger und breiter KI, je nachdem, wie groß das „Aktionsfeld“ der KI ist. Zum Beispiel operiert eine eingeschränkte KI nur in einem Bereich, während breite KI umfassenden Zugriff auf Datenquellen hat. Die Unterscheidung zwischen enger und breiter KI ist daher quantitativer Natur und zwischen schwacher und starker KI qualitativ. Überlegungen darüber, wie ein sozial akzeptabler Rahmen für KI geschaffen werden kann, müssen im Hinblick auf die Merkmale der KI angestellt werden. Angefangen bei Überlegungen darüber, auf welche Datenquellen sie zugreifen und diese verarbeiten dürfen, bis hin zum Grad der Entscheidungs- und Handlungsmacht, die ihnen eingeräumt wird und wie diese dann im Detail ausgestaltet wird.
Laut Psychologie ist menschliche Intelligenz dagegen in erster Linie ein konstruiertes, soziales Konstrukt, das je nach Kulturkreis unterschiedliche Bewertungsschwerpunkte hat. Uneinig sind sich die Forscher in der Frage, ob Intelligenz als eine einzelne Fähigkeit oder als Produkt mehrerer individueller Fähigkeiten zu betrachten ist.
Menschliche Intelligenz wird als Verstehen, Urteilen und Denken oder rationales Denken, zielorientiertes Handeln und effektive Interaktion mit der Umwelt beschrieben. Im Grunde kann es jedoch nur indirekt beobachtet werden. Wir messen die menschliche Intelligenz anhand konstruierter Situationen, in denen wir die Fähigkeit bewerten, Lösungen zu finden (IQ-Tests).
Die Rolle der Kreativität bei der Intelligenz muss auch im Hinblick auf die Vergleichbarkeit zwischen menschlicher und künstlicher Intelligenz betrachtet werden. Es wird zwischen konvergentem und divergentem Denken unterschieden. Wenn wir konvergent denken, suchen wir in Intelligenztests nach der einen — besten — Lösung, und wenn wir divergent denken, suchen wir nach mehreren einfallsreichen Lösungen.
Darüber hinaus wird dem Begriff Intelligenz heute immer mehr zugeschrieben, beispielsweise soziale und emotionale Intelligenz oder die Begriffe verkörperte, eingebettete, enaktive und erweiterte Kognition. Sie werden in der psychologischen und philosophischen Bewertung der Robotik angewendet und bewerten die Rolle des Körpers und der Umwelt von Robotersystemen.
Dementsprechend ist fraglich, inwieweit der Begriff Intelligenz überhaupt auf künstliche Intelligenz übertragen werden kann und ob er nicht eher als metaphorischer Begriff interpretiert werden sollte.
Alternativ könnte das Konzept der Vernunft die Fähigkeiten der KI umfassen und so Handlungsempfehlungen geben. Wir kennen den Begriff der Vernunft schon länger als den der Intelligenz, wobei Intelligenz ein Bestandteil der Vernunft ist.
Die Vernunft (lateinisch ratio, „Berechnung, Berechnung“) ist eine Art des Denkens, die es dem menschlichen Geist ermöglicht, seine Bezüge zur Realität zu organisieren. Es ist im Wesentlichen in theoretische und praktische Gründe unterteilt. Während die theoretische Vernunft, die sich auf den Erkenntnisgewinn bezieht, noch gewisse Parallelen zu KI-Systemen aufweist, ist die praktische Vernunft, die auf kohärentes, verantwortungsvolles Handeln abzielt, um ein gutes Leben zu ermöglichen, bereits heute nicht mehr anwendbar.
Zumindest die bisher verfügbaren KI-Systeme „verfügen nicht über die relevanten Fähigkeiten des Sinnverständnisses, der Intentionalität und des Bezugs auf eine außersprachliche Realität“.
Weder das Konzept der Intelligenz noch das Konzept der Vernunft können derzeit auf künstliche Intelligenz angewendet werden. Eine Intelligenz oder Vernunft, die der menschlichen ebenbürtig ist, ist daher nicht vorhanden. Könnte die moralische Fähigkeit der KI selbst jedoch aus anderen Umständen abgeleitet werden?
Um das Vorhandensein moralischer Fähigkeiten festzustellen, muss auch der Begriff der Verantwortung berücksichtigt werden. Es muss geklärt werden, welche Fähigkeiten oder Eigenschaften vorhanden sein müssen, um moralischer Akteur zu sein. Denn nur ein moralischer Akteur kann moralische Verantwortung und damit Personenstatus haben. In der Ethiklehre sind Personen moralische Akteure, aber nicht alle Menschen.
Ob KI eine Person im Sinne einer moralischen Fähigkeit ist, lässt sich anhand von Daniel Dennetts „Theorie der Person“ ermitteln. Obwohl Menschen der unausweichliche Ausgangspunkt für die Bestimmung des Status von Personen sind, beschränkt Dennett den Status einer „Person“ nicht nur auf Menschen, was im Hinblick auf die Bewertung nichtmenschlicher Akteure vernünftig erscheint.
Dennett verwendet drei Kriterien, um die Persönlichkeit zu bestimmen:
Intentionalität ist der subjektive Bewusstseinsakt, der auf ein Objekt gerichtet ist. Mit anderen Worten, sie umschreibt die Gefühlswahrnehmung von Objekten/Personen. Intentionalität auf der ersten Ebene bedeutet, dass man nur sich selbst wahrnimmt. Sobald man andere Akteure wahrnimmt, ist die zweite Ebene der Intentionalität erreicht und wenn man nun davon ausgeht, dass das als Akteur wahrgenommene Gegenüber sich selbst wiederum als Akteur wahrnimmt, ist die dritte Ebene der Intentionalität erreicht.
Sprachfähigkeit wiederum ist die Fähigkeit, mündlich zu kommunizieren. Im Prinzip bedeutet das, dass per se keine nichtmenschlichen Akteure in Frage kommen. Inzwischen ist die KI jedoch an dem Punkt angelangt, an dem sie dank NLP und Sprachsynthese genau diese verbale Kommunikation beherrscht und über eine Sprachfähigkeit verfügt.
Laut Dennett ist Selbstbewusstsein das bewusste Sein, also die Wahrnehmung von sich selbst als Lebewesen und die Möglichkeit, über sich selbst nachzudenken.
Darüber hinaus kann der freie Wille als Kriterium für moralische Fähigkeiten verwendet werden. Denn wer keine freien Entscheidungen trifft, kann sich auch nicht für die Handlungen rechtfertigen müssen. Der freie Wille ist der Intentionalität von Dennetts dritter Stufe fast ähnlich. Denn wer keinen geistigen Zustand der Selbstwahrnehmung hat, kann folglich nichts tun. Laut Aristoteles steht es ihm frei, ohne äußere oder innere Einschränkungen zu tun, was er will. Selbst Singularitätsfälle, bei denen die KI angeblich ihre eigenen Entscheidungen trifft, würden den freien Willen nicht bejahen, sofern er immer noch programmierten Zielen unterliegt, sei es Optimierung.
KI-Systeme sind also (bisher) nicht in der Lage, selbst nach der Personentheorie moralische Akteure zu sein, und man kann ihnen daher keine moralischen Rechte oder Pflichten übertragen.
Auch wenn KI-Systeme selbst (bisher) keine moralischen Rechte und Pflichten mit sich bringen, bringt die fortschreitende Automatisierung von Prozessen Konflikte mit sich, deren wir uns bewusst sein sollten. Einerseits, weil die innovativen Systeme natürlich noch nicht voll ausgereift und völlig fehlerfrei sind, und andererseits, weil wir als Gesellschaft überlegen müssen, welche Prozesse wir in welchem Umfang der KI überlassen wollen. KI-Systeme bieten natürlich auch Vorteile, die bisher undenkbar waren.
Eines der großen Probleme, die uns in Zukunft beschäftigen werden, ist die Rückverfolgbarkeit und Differenzierung von echten und KI-generierten Inhalten (sogenannte Deep Fakes), die von echten Nutzern oder programmierten Social Bots verbreitet werden.
Die Fähigkeiten der KI reichen heute von der Generierung von Ton-, Foto- oder Videoaufnahmen in immer besserer Qualität bis hin zur Massenverbreitung durch soziale Bots.
Deep-Fakes sind synthetische Medien wie Bilder, Audios oder Videos, die mithilfe von KI so manipuliert wurden, dass sie täuschend echt wirken. Die KI wird mit Bildern oder Videos einer Person trainiert, um dann neues Filmmaterial von dieser Person zu erstellen oder vorhandenes Filmmaterial so zu verändern, dass die Person etwas sagt oder tut, was sie nicht wirklich gesagt oder getan hat. Deep-Fakes können nicht nur von Politikern oder anderen Mitgliedern der Öffentlichkeit gemacht werden, sondern auch von Privatpersonen.
Tools wie Dall-E entwickeln sich so schnell, dass es nur eine Frage der Zeit ist, bis das menschliche Auge oder zumindest der unbesorgte Benutzer nicht mehr unterscheiden kann, ob das Gesehene und/oder Gehörte real oder generiert ist. Diese KI-generierten Deepfakes können dann mithilfe von KI-basierten Social Bots in großem Umfang verbreitet werden.
Social Bots sind automatisierte Softwareprogramme, die in sozialen Medien eingesetzt werden. Sie generieren automatisch Inhalte wie Beiträge, Likes, Kommentare oder geteilte Beiträge. Die Gefahr, die von Social Bots ausgeht, ist vielfältig. Einerseits können sie genutzt werden, um die öffentliche Meinung bewusst zu manipulieren, indem Fehlinformationen verbreitet oder der Diskurs gelenkt wird. Andererseits können sie als Fake-Accounts agieren und den Anschein erwecken, dass eine Meinung oder ein Anliegen, das in Wirklichkeit nur von wenigen kontrolliert wird, breite Unterstützung in der Öffentlichkeit findet.
Soziale Bots werden von Unternehmen, Staaten oder politischen Gruppen zur Beeinflussung eingesetzt und sind manchmal schwer von echten Nutzern zu unterscheiden. Sie untergraben somit Authentizität und Glaubwürdigkeit in sozialen Netzwerken und gefährden unsere demokratischen Prozesse.
Aber selbst mit der einfachen Verwendung von beispielsweise ChatGPT werden wir mit Problemen konfrontiert. Dies liegt daran, dass die Quellen der von ChatGPT generierten Antworten nicht transparent sind und (bisher) nicht zurückverfolgt werden können. In Suchergebnissen von z.B. Google gibt es — meistens — einen Verweis auf die zugrunde liegenden Datenquellen. Die Intransparenz der Antworten birgt das Risiko, dass frühere Manipulationen, also der Datenquellen von z.B. ChatGPT, die Antworten in großem Umfang beeinflussen können.
Nur ein naiver Mensch würde behaupten, dass KI die Glaubwürdigkeit der Texte, Bilder und Videos, die im Internet zu finden sind, qualitativ mindert. Schon vor Social Bots, Dall-E und anderen KI-Systemen war es immer notwendig, eine seriöse Quellenanalyse durchzuführen. Quantitativ werden wir jedoch sicherlich vor neuen Herausforderungen stehen, da die Erstellung und Verbreitung von Fake News und Deep Fakes inzwischen niedrigschwelliger geworden ist.
Andererseits ist die KI selbst auch hier eine Lösung. KI-Algorithmen können in kurzer Zeit eine große Menge an Inhalten und Metadaten analysieren, um unauthentische oder manipulierte Inhalte zu identifizieren. Wie bei jeder Technologie, die gut oder schlecht eingesetzt werden kann, beginnt das Wettrüsten. Während die Verbreitung und Erstellung viel einfacher geworden sind, sind leistungsstarke KI-Systeme auch in der Lage, riesige Datenmengen in kurzer Zeit zu analysieren, um auf tiefgreifende Fälschungen hinzuweisen. Einfach ausgedrückt: Die Ära der (KI-) Räuber und (KI-) Gendarmen beginnt — genau wie im „echten“ Leben.
KI-basierte Programme sind in Personalabteilungen hoch im Kurs. Die Hoffnung ist, dass sie beispielsweise Rekrutierungsprozesse schneller, effizienter und vor allem fairer machen. Im traditionellen Rekrutierungsprozess gibt es mehrere Faktoren, die zu Vorurteilen führen können: zum Beispiel Vorurteile in Bezug auf Primat und Voreingenommenheit in Bezug auf Aktualität. Primat Bias bedeutet, dass Bewerber, die zu Beginn von Personalvermittlern überprüft werden, bevorzugt werden.
Die Bewerbungen, die am Ende analysiert werden, bleiben auch besser im Gedächtnis und werden daher bei der Auswahl bevorzugt; dieses Phänomen wird als Aktualitätsbias bezeichnet. Im Gegensatz dazu sind die Bewerber, die sich in der Mitte des Bewerbungsstapels befinden, benachteiligt. Hinzu kommt die unbewusste Voreingenommenheit, die sich auf den Prozess der unbewussten und ungewollten Bildung persönlicher Meinungen und damit Vorurteile gegenüber anderen Menschen bezieht. Man möchte solchen kognitiven Verzerrungen der Recruiter mit Software entgegenwirken. Schließlich kann ein Computer keine unbewussten Vorurteile oder unbegründete Sympathien gegenüber Bewerbern oder Mitarbeitern hegen. Zumindest ist das die Theorie. Leider führt der Einsatz von Software gelegentlich zu einem sogenannten KI-Bias.
Ein KI-Bias beschreibt eine Voreingenommenheit in der künstlichen Intelligenz, die zu einer unfairen oder diskriminierenden Behandlung bestimmter Gruppen führt. Eine solche Voreingenommenheit kann bewusst einprogrammiert sein, kann sich aber auch unbeabsichtigt während des Trainings der KI einschleichen. Aufgrund der großen Menge an Trainingsdaten und der Komplexität der KI-Modelle ist es oft schwierig, solche Verzerrungen zu erkennen oder zu vermeiden.
Amazon ist beispielsweise 2018 auf dieses Problem gestoßen, weil es seinen Algorithmus für die Einstellung von Mitarbeitern auf der Grundlage der historischen Leistung der Mitarbeiter entwickelt hat. Problematischerweise wurden hellhäutige Männer bevorzugt, weil sie zuvor im Unternehmen die besten Leistungen erbracht hatten, was letztlich darauf zurückzuführen war, dass die Mehrheit der Belegschaft aus hellhäutigen Männern bestand. Infolgedessen erhielt diese Personengruppe von der KI höhere Punktzahlen, weshalb sie im Rekrutierungsprozess bevorzugt wurden.
Der KI-Rekrutierungsprozess von Amazon wurde in der Folge unter anderem aufgrund der Diskriminierung von Frauen eingestellt.
Dennoch werden Einsatzmöglichkeiten dort gesehen, wo es die tägliche Arbeit der Personalabteilungen vereinfacht. „Aber es bleibt ein Personalgeschäft mit echten Menschen, die datengetrieben sein werden“, sagt Stefan. „Langfristig wird sich der Einsatz von KI im Personalmanagement durchsetzen“, fährt Stefan fort, „einfach aufgrund der zunehmend daten- und informationsgesteuerten Unternehmensführung, auch außerhalb der Personalabteilung.“
Sobald Sie also ein fehlerfreies Training von KI-Systemen mit qualifizierten Trainingsdaten garantieren können, ist die Technologie im Personalmanagement absolut zukunftsfähig. Es ist auch wichtig, sich daran zu erinnern, dass die Hürde von Menschen verursacht wurde, da menschliche Entscheidungen oder historische Umstände die Trainingsdaten unbrauchbar machen. Die KI-Systeme sind bereit, wir müssen nur die Spirale durchbrechen, um ein gerechteres Personalmanagement zu schaffen.
Als nächstes folgt natürlich die bahnbrechende Effizienzsteigerung, die verspricht, uns Menschen den Arbeitsalltag zu erleichtern. Ganze Prozesse werden einfacher, schneller und sicherer. Menschen sparen Zeit bei monotonen, sich wiederholenden Aufgaben, die sie nun in kreative, kreative Projekte stecken und so Innovationen vorantreiben können.
Obwohl KI laut Weltwirtschaftsforum 85 Millionen Arbeitsplätze überflüssig machen wird, werden laut derselben Studie 97 Millionen neue geschaffen. KI-gestützte Software verändert die Arbeitswelt wirklich, nicht nur.
Die Art und Weise, wie wir arbeiten, wird sich in Zukunft noch stärker verändern, da Natural Language Processing die Befehlseingabe revolutioniert. Anstatt einzelne Tools zu bedienen und die Schritte bis zum gewünschten Endergebnis selbst durchzuführen, geben wir der KI einfach per Spracheingabe die Zielidee vor und stimmen nur die sogenannten Prompts ab. Benutzeroberflächen werden deutlich individueller werden, da der Bediener auch als Nicht-Programmierer in der Lage sein wird, die Zielidee seiner Benutzeroberfläche zu formulieren, den Rest erledigt die KI.
Das technische Know-how zur Bedienung dieser neuen Art von Software sollte in die Schulen einfließen, sodass wir schon jetzt den kommenden Generationen einen guten Start in diese Welt ermöglichen. Neu an dieser Revolution wird sein, dass sie — anders als die Industrialisierung — nicht einfache, manuelle Tätigkeiten betreffen wird, sondern den Großteil der klassischen, administrativen Bürojobs. Den Menschen, deren Jobs durch KI überflüssig werden, sollte eine umfassende Ausbildung angeboten werden, damit sie anschließend gut ausgebildet wieder in den Arbeitsmarkt eintreten können. Vorausgesetzt, wir gestalten den Wandel auf soziale und vernünftige Weise, werden wir als stärkere Gesellschaft hervorgehen und in allen Bereichen von dieser Technologie profitieren.
Die Vision von Forschern und Autoherstellern ist, dass KI-basiertes autonomes Fahren den Straßenverkehr sicherer und reibungsloser machen wird. Ethisch besonders explosiv wird es jedoch, wenn Roboter die menschliche Gesundheit gefährden können. Bis ein großer Teil aller automobilen Verkehrsteilnehmer tatsächlich autonom ist, befinden wir uns mitten in einem spannenden Transformationsprozess. Hier prallen insbesondere technischer Fortschritt, ethische Bedenken und langwierige Gesetzgebungsverfahren aufeinander.
Juristen und Ethiker befürchten die Situation, in der beispielsweise ein technischer Fehler oder eine von KI getroffene Entscheidung dazu führt, dass Menschen auf der Straße verletzt werden. Während sich die Gesellschaft an Unfälle im „menschlichen“ Verkehr gewöhnt hat, löst die Vorstellung eines Unfalls zwischen Mensch und Maschine große Emotionen und Kritik aus.
Ist menschliches Versagen bei gleichem Ergebnis unterschiedlich zu bewerten?
Insofern jedenfalls, da wir ein Rechtssystem haben, das genau das bewertet. Wie schwerwiegend ist die Schuld und was sind die Folgen für die Person, die für den Unfall verantwortlich ist? Ein wesentlicher Bestandteil dieses Prozesses ist auch die rechtliche Anhörung der Person, die den Unfall verursacht hat. Er oder sie kann ihren Standpunkt darlegen und mögliche mildernde Umstände geltend machen. Derzeit ist dies für das „Blackbox-Modell KI“ nicht denkbar. Die Gesellschaft fürchtet also Unfälle ohne eine verantwortliche Partei. Jedenfalls ist die Rechtswissenschaft noch nicht an dem Punkt angelangt, an dem aufkommende Haftungsfragen einheitlich beantwortet werden könnten.
Gleichzeitig spielt das sogenannte Trolley-Dilemma eine Rolle. Das Trolley-Problem ist ein Gedankenexperiment, das 1967 von der Philosophin Philippa Foot erfunden wurde. Die Situation wird in den Neurowissenschaften, der Philosophie und sogar in Film und Fernsehen immer wieder verwendet. Ob in „Game of Thrones“ oder dem Theaterstück „Terror“ von Ferdinand von Schirach.
Das Szenario des Trolley-Problems sieht wie folgt aus: Ein Zug rast auf eine Gruppe von fünf Gleisarbeitern zu. Sie haben die Möglichkeit, sie zu retten, indem Sie in letzter Sekunde einen Schalter umschalten. Aber auf dem Abstellgleis arbeitet noch ein Arbeiter, der jetzt zu Tode überfahren werden würde. Was ist zu tun?
Im Kontext des autonomen Fahrens ist nicht einmal die Entscheidung selbst entscheidend, sondern bereits die Tatsache, dass in diesem Fall eine Software moralische Entscheidungen treffen würde. Eine Maschine entscheidet über die Ethik des Menschen. Aber wie bereits erwähnt, ist Technologie (noch) kein moralischer Akteur. Dementsprechend sollten wir solche schwerwiegenden, ethischen Entscheidungen unter keinen Umständen ihr überlassen.
Andererseits sollte auch nicht vernachlässigt werden, dass KI-gestützte autonome Fahrzeuge die Sicherheit auf den Straßen erheblich erhöhen würden.
Gleichzeitig sparen autonome Fahrzeuge auch enorm viel Zeit. So können Passagiere beispielsweise direkt an ihrem Ziel aus dem Auto aussteigen, und das Fahrzeug sucht selbstständig nach einem geeigneten Parkplatz. Der Verkehr könnte viel reibungsloser ablaufen, da sich eine vernetzte Gruppe von Fahrzeugen auf die ideale Geschwindigkeit „einigen“ könnte. Gleichzeitig könnten Ampeln freigegeben werden, sodass auch sie in die Geschwindigkeitsberechnung einfließen würden. Im Jahr 2015 wurden 88% der Verkehrsunfälle durch Fahrerfehler verursacht, sodass eine erhebliche Reduzierung der Unfälle möglich ist. Fahren unter Alkoholeinfluss würde keine Gefahr mehr darstellen, ebenso wenig wie die Überschätzung der eigenen Fähigkeiten durch den Menschen und die Fehler von Anfängern.
Autonomes Fahren und auch das Trolley-Dilemma sind hier handfeste Paradebeispiele und Stellvertreter für ein grundlegend existierendes Problem: Ethik und Gesetzgebung bieten keine Sicherheit und nehmen daher der Gesellschaft keine Sorgen. In allen Bereichen, in denen KI Entscheidungen trifft, die sich auf die menschliche Gesundheit auswirken, müssen zuerst Ethikberater, dann Gesetzgeber, verlässliche ethische und rechtliche Rahmenbedingungen schaffen. Es muss geklärt werden, wie sich ein autonomes Fahrzeug in Gefahren- und Dilemma-Situationen verhalten soll und wie das Haftungsrecht ausgestaltet werden soll. Nur mit dieser Gewissheit kann Vertrauen in die Vision eines sicheren Verkehrs entstehen.
Auch wenn KI-Systeme selbst (bisher) keine moralischen Rechte und Pflichten mit sich bringen, bringt die fortschreitende Automatisierung von Prozessen Konflikte mit sich, deren wir uns bewusst sein sollten. Einerseits, weil die innovativen Systeme natürlich noch nicht voll ausgereift und völlig fehlerfrei sind, und andererseits, weil wir als Gesellschaft überlegen müssen, welche Prozesse wir in welchem Umfang der KI überlassen wollen. KI-Systeme bieten natürlich auch Vorteile, die bisher undenkbar waren.
Eines der großen Probleme, die uns in Zukunft beschäftigen werden, ist die Rückverfolgbarkeit und Differenzierung von echten und KI-generierten Inhalten (sogenannte Deep Fakes), die von echten Nutzern oder programmierten Social Bots verbreitet werden.
Die Fähigkeiten der KI reichen heute von der Generierung von Ton-, Foto- oder Videoaufnahmen in immer besserer Qualität bis hin zur Massenverbreitung durch soziale Bots.
Deep-Fakes sind synthetische Medien wie Bilder, Audios oder Videos, die mithilfe von KI so manipuliert wurden, dass sie täuschend echt wirken. Die KI wird mit Bildern oder Videos einer Person trainiert, um dann neues Filmmaterial von dieser Person zu erstellen oder vorhandenes Filmmaterial so zu verändern, dass die Person etwas sagt oder tut, was sie nicht wirklich gesagt oder getan hat. Deep-Fakes können nicht nur von Politikern oder anderen Mitgliedern der Öffentlichkeit gemacht werden, sondern auch von Privatpersonen.
Tools wie Dall-E entwickeln sich so schnell, dass es nur eine Frage der Zeit ist, bis das menschliche Auge oder zumindest der unbesorgte Benutzer nicht mehr unterscheiden kann, ob das Gesehene und/oder Gehörte real oder generiert ist. Diese KI-generierten Deepfakes können dann mithilfe von KI-basierten Social Bots in großem Umfang verbreitet werden.
Social Bots sind automatisierte Softwareprogramme, die in sozialen Medien eingesetzt werden. Sie generieren automatisch Inhalte wie Beiträge, Likes, Kommentare oder geteilte Beiträge. Die Gefahr, die von Social Bots ausgeht, ist vielfältig. Einerseits können sie genutzt werden, um die öffentliche Meinung bewusst zu manipulieren, indem Fehlinformationen verbreitet oder der Diskurs gelenkt wird. Andererseits können sie als Fake-Accounts agieren und den Anschein erwecken, dass eine Meinung oder ein Anliegen, das in Wirklichkeit nur von wenigen kontrolliert wird, breite Unterstützung in der Öffentlichkeit findet.
Soziale Bots werden von Unternehmen, Staaten oder politischen Gruppen zur Beeinflussung eingesetzt und sind manchmal schwer von echten Nutzern zu unterscheiden. Sie untergraben somit Authentizität und Glaubwürdigkeit in sozialen Netzwerken und gefährden unsere demokratischen Prozesse.
Aber selbst mit der einfachen Verwendung von beispielsweise ChatGPT werden wir mit Problemen konfrontiert. Dies liegt daran, dass die Quellen der von ChatGPT generierten Antworten nicht transparent sind und (bisher) nicht zurückverfolgt werden können. In Suchergebnissen von z.B. Google gibt es — meistens — einen Verweis auf die zugrunde liegenden Datenquellen. Die Intransparenz der Antworten birgt das Risiko, dass frühere Manipulationen, also der Datenquellen von z.B. ChatGPT, die Antworten in großem Umfang beeinflussen können.
Nur ein naiver Mensch würde behaupten, dass KI die Glaubwürdigkeit der Texte, Bilder und Videos, die im Internet zu finden sind, qualitativ mindert. Schon vor Social Bots, Dall-E und anderen KI-Systemen war es immer notwendig, eine seriöse Quellenanalyse durchzuführen. Quantitativ werden wir jedoch sicherlich vor neuen Herausforderungen stehen, da die Erstellung und Verbreitung von Fake News und Deep Fakes inzwischen niedrigschwelliger geworden ist.
Andererseits ist die KI selbst auch hier eine Lösung. KI-Algorithmen können in kurzer Zeit eine große Menge an Inhalten und Metadaten analysieren, um unauthentische oder manipulierte Inhalte zu identifizieren. Wie bei jeder Technologie, die gut oder schlecht eingesetzt werden kann, beginnt das Wettrüsten. Während die Verbreitung und Erstellung viel einfacher geworden sind, sind leistungsstarke KI-Systeme auch in der Lage, riesige Datenmengen in kurzer Zeit zu analysieren, um auf tiefgreifende Fälschungen hinzuweisen. Einfach ausgedrückt: Die Ära der (KI-) Räuber und (KI-) Gendarmen beginnt — genau wie im „echten“ Leben.
KI-basierte Programme sind in Personalabteilungen hoch im Kurs. Die Hoffnung ist, dass sie beispielsweise Rekrutierungsprozesse schneller, effizienter und vor allem fairer machen. Im traditionellen Rekrutierungsprozess gibt es mehrere Faktoren, die zu Vorurteilen führen können: zum Beispiel Vorurteile in Bezug auf Primat und Voreingenommenheit in Bezug auf Aktualität. Primat Bias bedeutet, dass Bewerber, die zu Beginn von Personalvermittlern überprüft werden, bevorzugt werden.
Die Bewerbungen, die am Ende analysiert werden, bleiben auch besser im Gedächtnis und werden daher bei der Auswahl bevorzugt; dieses Phänomen wird als Aktualitätsbias bezeichnet. Im Gegensatz dazu sind die Bewerber, die sich in der Mitte des Bewerbungsstapels befinden, benachteiligt. Hinzu kommt die unbewusste Voreingenommenheit, die sich auf den Prozess der unbewussten und ungewollten Bildung persönlicher Meinungen und damit Vorurteile gegenüber anderen Menschen bezieht. Man möchte solchen kognitiven Verzerrungen der Recruiter mit Software entgegenwirken. Schließlich kann ein Computer keine unbewussten Vorurteile oder unbegründete Sympathien gegenüber Bewerbern oder Mitarbeitern hegen. Zumindest ist das die Theorie. Leider führt der Einsatz von Software gelegentlich zu einem sogenannten KI-Bias.
Ein KI-Bias beschreibt eine Voreingenommenheit in der künstlichen Intelligenz, die zu einer unfairen oder diskriminierenden Behandlung bestimmter Gruppen führt. Eine solche Voreingenommenheit kann bewusst einprogrammiert sein, kann sich aber auch unbeabsichtigt während des Trainings der KI einschleichen. Aufgrund der großen Menge an Trainingsdaten und der Komplexität der KI-Modelle ist es oft schwierig, solche Verzerrungen zu erkennen oder zu vermeiden.
Amazon ist beispielsweise 2018 auf dieses Problem gestoßen, weil es seinen Algorithmus für die Einstellung von Mitarbeitern auf der Grundlage der historischen Leistung der Mitarbeiter entwickelt hat. Problematischerweise wurden hellhäutige Männer bevorzugt, weil sie zuvor im Unternehmen die besten Leistungen erbracht hatten, was letztlich darauf zurückzuführen war, dass die Mehrheit der Belegschaft aus hellhäutigen Männern bestand. Infolgedessen erhielt diese Personengruppe von der KI höhere Punktzahlen, weshalb sie im Rekrutierungsprozess bevorzugt wurden.
Der KI-Rekrutierungsprozess von Amazon wurde in der Folge unter anderem aufgrund der Diskriminierung von Frauen eingestellt.
Dennoch werden Einsatzmöglichkeiten dort gesehen, wo es die tägliche Arbeit der Personalabteilungen vereinfacht. „Aber es bleibt ein Personalgeschäft mit echten Menschen, die datengetrieben sein werden“, sagt Stefan. „Langfristig wird sich der Einsatz von KI im Personalmanagement durchsetzen“, fährt Stefan fort, „einfach aufgrund der zunehmend daten- und informationsgesteuerten Unternehmensführung, auch außerhalb der Personalabteilung.“
Sobald Sie also ein fehlerfreies Training von KI-Systemen mit qualifizierten Trainingsdaten garantieren können, ist die Technologie im Personalmanagement absolut zukunftsfähig. Es ist auch wichtig, sich daran zu erinnern, dass die Hürde von Menschen verursacht wurde, da menschliche Entscheidungen oder historische Umstände die Trainingsdaten unbrauchbar machen. Die KI-Systeme sind bereit, wir müssen nur die Spirale durchbrechen, um ein gerechteres Personalmanagement zu schaffen.
Als nächstes folgt natürlich die bahnbrechende Effizienzsteigerung, die verspricht, uns Menschen den Arbeitsalltag zu erleichtern. Ganze Prozesse werden einfacher, schneller und sicherer. Menschen sparen Zeit bei monotonen, sich wiederholenden Aufgaben, die sie nun in kreative, kreative Projekte stecken und so Innovationen vorantreiben können.
Obwohl KI laut Weltwirtschaftsforum 85 Millionen Arbeitsplätze überflüssig machen wird, werden laut derselben Studie 97 Millionen neue geschaffen. KI-gestützte Software verändert die Arbeitswelt wirklich, nicht nur.
Die Art und Weise, wie wir arbeiten, wird sich in Zukunft noch stärker verändern, da Natural Language Processing die Befehlseingabe revolutioniert. Anstatt einzelne Tools zu bedienen und die Schritte bis zum gewünschten Endergebnis selbst durchzuführen, geben wir der KI einfach per Spracheingabe die Zielidee vor und stimmen nur die sogenannten Prompts ab. Benutzeroberflächen werden deutlich individueller werden, da der Bediener auch als Nicht-Programmierer in der Lage sein wird, die Zielidee seiner Benutzeroberfläche zu formulieren, den Rest erledigt die KI.
Das technische Know-how zur Bedienung dieser neuen Art von Software sollte in die Schulen einfließen, sodass wir schon jetzt den kommenden Generationen einen guten Start in diese Welt ermöglichen. Neu an dieser Revolution wird sein, dass sie — anders als die Industrialisierung — nicht einfache, manuelle Tätigkeiten betreffen wird, sondern den Großteil der klassischen, administrativen Bürojobs. Den Menschen, deren Jobs durch KI überflüssig werden, sollte eine umfassende Ausbildung angeboten werden, damit sie anschließend gut ausgebildet wieder in den Arbeitsmarkt eintreten können. Vorausgesetzt, wir gestalten den Wandel auf soziale und vernünftige Weise, werden wir als stärkere Gesellschaft hervorgehen und in allen Bereichen von dieser Technologie profitieren.
Die Vision von Forschern und Autoherstellern ist, dass KI-basiertes autonomes Fahren den Straßenverkehr sicherer und reibungsloser machen wird. Ethisch besonders explosiv wird es jedoch, wenn Roboter die menschliche Gesundheit gefährden können. Bis ein großer Teil aller automobilen Verkehrsteilnehmer tatsächlich autonom ist, befinden wir uns mitten in einem spannenden Transformationsprozess. Hier prallen insbesondere technischer Fortschritt, ethische Bedenken und langwierige Gesetzgebungsverfahren aufeinander.
Juristen und Ethiker befürchten die Situation, in der beispielsweise ein technischer Fehler oder eine von KI getroffene Entscheidung dazu führt, dass Menschen auf der Straße verletzt werden. Während sich die Gesellschaft an Unfälle im „menschlichen“ Verkehr gewöhnt hat, löst die Vorstellung eines Unfalls zwischen Mensch und Maschine große Emotionen und Kritik aus.
Ist menschliches Versagen bei gleichem Ergebnis unterschiedlich zu bewerten?
Insofern jedenfalls, da wir ein Rechtssystem haben, das genau das bewertet. Wie schwerwiegend ist die Schuld und was sind die Folgen für die Person, die für den Unfall verantwortlich ist? Ein wesentlicher Bestandteil dieses Prozesses ist auch die rechtliche Anhörung der Person, die den Unfall verursacht hat. Er oder sie kann ihren Standpunkt darlegen und mögliche mildernde Umstände geltend machen. Derzeit ist dies für das „Blackbox-Modell KI“ nicht denkbar. Die Gesellschaft fürchtet also Unfälle ohne eine verantwortliche Partei. Jedenfalls ist die Rechtswissenschaft noch nicht an dem Punkt angelangt, an dem aufkommende Haftungsfragen einheitlich beantwortet werden könnten.
Gleichzeitig spielt das sogenannte Trolley-Dilemma eine Rolle. Das Trolley-Problem ist ein Gedankenexperiment, das 1967 von der Philosophin Philippa Foot erfunden wurde. Die Situation wird in den Neurowissenschaften, der Philosophie und sogar in Film und Fernsehen immer wieder verwendet. Ob in „Game of Thrones“ oder dem Theaterstück „Terror“ von Ferdinand von Schirach.
Das Szenario des Trolley-Problems sieht wie folgt aus: Ein Zug rast auf eine Gruppe von fünf Gleisarbeitern zu. Sie haben die Möglichkeit, sie zu retten, indem Sie in letzter Sekunde einen Schalter umschalten. Aber auf dem Abstellgleis arbeitet noch ein Arbeiter, der jetzt zu Tode überfahren werden würde. Was ist zu tun?
Im Kontext des autonomen Fahrens ist nicht einmal die Entscheidung selbst entscheidend, sondern bereits die Tatsache, dass in diesem Fall eine Software moralische Entscheidungen treffen würde. Eine Maschine entscheidet über die Ethik des Menschen. Aber wie bereits erwähnt, ist Technologie (noch) kein moralischer Akteur. Dementsprechend sollten wir solche schwerwiegenden, ethischen Entscheidungen unter keinen Umständen ihr überlassen.
Andererseits sollte auch nicht vernachlässigt werden, dass KI-gestützte autonome Fahrzeuge die Sicherheit auf den Straßen erheblich erhöhen würden.
Gleichzeitig sparen autonome Fahrzeuge auch enorm viel Zeit. So können Passagiere beispielsweise direkt an ihrem Ziel aus dem Auto aussteigen, und das Fahrzeug sucht selbstständig nach einem geeigneten Parkplatz. Der Verkehr könnte viel reibungsloser ablaufen, da sich eine vernetzte Gruppe von Fahrzeugen auf die ideale Geschwindigkeit „einigen“ könnte. Gleichzeitig könnten Ampeln freigegeben werden, sodass auch sie in die Geschwindigkeitsberechnung einfließen würden. Im Jahr 2015 wurden 88% der Verkehrsunfälle durch Fahrerfehler verursacht, sodass eine erhebliche Reduzierung der Unfälle möglich ist. Fahren unter Alkoholeinfluss würde keine Gefahr mehr darstellen, ebenso wenig wie die Überschätzung der eigenen Fähigkeiten durch den Menschen und die Fehler von Anfängern.
Autonomes Fahren und auch das Trolley-Dilemma sind hier handfeste Paradebeispiele und Stellvertreter für ein grundlegend existierendes Problem: Ethik und Gesetzgebung bieten keine Sicherheit und nehmen daher der Gesellschaft keine Sorgen. In allen Bereichen, in denen KI Entscheidungen trifft, die sich auf die menschliche Gesundheit auswirken, müssen zuerst Ethikberater, dann Gesetzgeber, verlässliche ethische und rechtliche Rahmenbedingungen schaffen. Es muss geklärt werden, wie sich ein autonomes Fahrzeug in Gefahren- und Dilemma-Situationen verhalten soll und wie das Haftungsrecht ausgestaltet werden soll. Nur mit dieser Gewissheit kann Vertrauen in die Vision eines sicheren Verkehrs entstehen.
Auch wenn KI-Systeme selbst (bisher) keine moralischen Rechte und Pflichten mit sich bringen, bringt die fortschreitende Automatisierung von Prozessen Konflikte mit sich, deren wir uns bewusst sein sollten. Einerseits, weil die innovativen Systeme natürlich noch nicht voll ausgereift und völlig fehlerfrei sind, und andererseits, weil wir als Gesellschaft überlegen müssen, welche Prozesse wir in welchem Umfang der KI überlassen wollen. KI-Systeme bieten natürlich auch Vorteile, die bisher undenkbar waren.
Eines der großen Probleme, die uns in Zukunft beschäftigen werden, ist die Rückverfolgbarkeit und Differenzierung von echten und KI-generierten Inhalten (sogenannte Deep Fakes), die von echten Nutzern oder programmierten Social Bots verbreitet werden.
Die Fähigkeiten der KI reichen heute von der Generierung von Ton-, Foto- oder Videoaufnahmen in immer besserer Qualität bis hin zur Massenverbreitung durch soziale Bots.
Deep-Fakes sind synthetische Medien wie Bilder, Audios oder Videos, die mithilfe von KI so manipuliert wurden, dass sie täuschend echt wirken. Die KI wird mit Bildern oder Videos einer Person trainiert, um dann neues Filmmaterial von dieser Person zu erstellen oder vorhandenes Filmmaterial so zu verändern, dass die Person etwas sagt oder tut, was sie nicht wirklich gesagt oder getan hat. Deep-Fakes können nicht nur von Politikern oder anderen Mitgliedern der Öffentlichkeit gemacht werden, sondern auch von Privatpersonen.
Tools wie Dall-E entwickeln sich so schnell, dass es nur eine Frage der Zeit ist, bis das menschliche Auge oder zumindest der unbesorgte Benutzer nicht mehr unterscheiden kann, ob das Gesehene und/oder Gehörte real oder generiert ist. Diese KI-generierten Deepfakes können dann mithilfe von KI-basierten Social Bots in großem Umfang verbreitet werden.
Social Bots sind automatisierte Softwareprogramme, die in sozialen Medien eingesetzt werden. Sie generieren automatisch Inhalte wie Beiträge, Likes, Kommentare oder geteilte Beiträge. Die Gefahr, die von Social Bots ausgeht, ist vielfältig. Einerseits können sie genutzt werden, um die öffentliche Meinung bewusst zu manipulieren, indem Fehlinformationen verbreitet oder der Diskurs gelenkt wird. Andererseits können sie als Fake-Accounts agieren und den Anschein erwecken, dass eine Meinung oder ein Anliegen, das in Wirklichkeit nur von wenigen kontrolliert wird, breite Unterstützung in der Öffentlichkeit findet.
Soziale Bots werden von Unternehmen, Staaten oder politischen Gruppen zur Beeinflussung eingesetzt und sind manchmal schwer von echten Nutzern zu unterscheiden. Sie untergraben somit Authentizität und Glaubwürdigkeit in sozialen Netzwerken und gefährden unsere demokratischen Prozesse.
Aber selbst mit der einfachen Verwendung von beispielsweise ChatGPT werden wir mit Problemen konfrontiert. Dies liegt daran, dass die Quellen der von ChatGPT generierten Antworten nicht transparent sind und (bisher) nicht zurückverfolgt werden können. In Suchergebnissen von z.B. Google gibt es — meistens — einen Verweis auf die zugrunde liegenden Datenquellen. Die Intransparenz der Antworten birgt das Risiko, dass frühere Manipulationen, also der Datenquellen von z.B. ChatGPT, die Antworten in großem Umfang beeinflussen können.
Nur ein naiver Mensch würde behaupten, dass KI die Glaubwürdigkeit der Texte, Bilder und Videos, die im Internet zu finden sind, qualitativ mindert. Schon vor Social Bots, Dall-E und anderen KI-Systemen war es immer notwendig, eine seriöse Quellenanalyse durchzuführen. Quantitativ werden wir jedoch sicherlich vor neuen Herausforderungen stehen, da die Erstellung und Verbreitung von Fake News und Deep Fakes inzwischen niedrigschwelliger geworden ist.
Andererseits ist die KI selbst auch hier eine Lösung. KI-Algorithmen können in kurzer Zeit eine große Menge an Inhalten und Metadaten analysieren, um unauthentische oder manipulierte Inhalte zu identifizieren. Wie bei jeder Technologie, die gut oder schlecht eingesetzt werden kann, beginnt das Wettrüsten. Während die Verbreitung und Erstellung viel einfacher geworden sind, sind leistungsstarke KI-Systeme auch in der Lage, riesige Datenmengen in kurzer Zeit zu analysieren, um auf tiefgreifende Fälschungen hinzuweisen. Einfach ausgedrückt: Die Ära der (KI-) Räuber und (KI-) Gendarmen beginnt — genau wie im „echten“ Leben.
KI-basierte Programme sind in Personalabteilungen hoch im Kurs. Die Hoffnung ist, dass sie beispielsweise Rekrutierungsprozesse schneller, effizienter und vor allem fairer machen. Im traditionellen Rekrutierungsprozess gibt es mehrere Faktoren, die zu Vorurteilen führen können: zum Beispiel Vorurteile in Bezug auf Primat und Voreingenommenheit in Bezug auf Aktualität. Primat Bias bedeutet, dass Bewerber, die zu Beginn von Personalvermittlern überprüft werden, bevorzugt werden.
Die Bewerbungen, die am Ende analysiert werden, bleiben auch besser im Gedächtnis und werden daher bei der Auswahl bevorzugt; dieses Phänomen wird als Aktualitätsbias bezeichnet. Im Gegensatz dazu sind die Bewerber, die sich in der Mitte des Bewerbungsstapels befinden, benachteiligt. Hinzu kommt die unbewusste Voreingenommenheit, die sich auf den Prozess der unbewussten und ungewollten Bildung persönlicher Meinungen und damit Vorurteile gegenüber anderen Menschen bezieht. Man möchte solchen kognitiven Verzerrungen der Recruiter mit Software entgegenwirken. Schließlich kann ein Computer keine unbewussten Vorurteile oder unbegründete Sympathien gegenüber Bewerbern oder Mitarbeitern hegen. Zumindest ist das die Theorie. Leider führt der Einsatz von Software gelegentlich zu einem sogenannten KI-Bias.
Ein KI-Bias beschreibt eine Voreingenommenheit in der künstlichen Intelligenz, die zu einer unfairen oder diskriminierenden Behandlung bestimmter Gruppen führt. Eine solche Voreingenommenheit kann bewusst einprogrammiert sein, kann sich aber auch unbeabsichtigt während des Trainings der KI einschleichen. Aufgrund der großen Menge an Trainingsdaten und der Komplexität der KI-Modelle ist es oft schwierig, solche Verzerrungen zu erkennen oder zu vermeiden.
Amazon ist beispielsweise 2018 auf dieses Problem gestoßen, weil es seinen Algorithmus für die Einstellung von Mitarbeitern auf der Grundlage der historischen Leistung der Mitarbeiter entwickelt hat. Problematischerweise wurden hellhäutige Männer bevorzugt, weil sie zuvor im Unternehmen die besten Leistungen erbracht hatten, was letztlich darauf zurückzuführen war, dass die Mehrheit der Belegschaft aus hellhäutigen Männern bestand. Infolgedessen erhielt diese Personengruppe von der KI höhere Punktzahlen, weshalb sie im Rekrutierungsprozess bevorzugt wurden.
Der KI-Rekrutierungsprozess von Amazon wurde in der Folge unter anderem aufgrund der Diskriminierung von Frauen eingestellt.
Dennoch werden Einsatzmöglichkeiten dort gesehen, wo es die tägliche Arbeit der Personalabteilungen vereinfacht. „Aber es bleibt ein Personalgeschäft mit echten Menschen, die datengetrieben sein werden“, sagt Stefan. „Langfristig wird sich der Einsatz von KI im Personalmanagement durchsetzen“, fährt Stefan fort, „einfach aufgrund der zunehmend daten- und informationsgesteuerten Unternehmensführung, auch außerhalb der Personalabteilung.“
Sobald Sie also ein fehlerfreies Training von KI-Systemen mit qualifizierten Trainingsdaten garantieren können, ist die Technologie im Personalmanagement absolut zukunftsfähig. Es ist auch wichtig, sich daran zu erinnern, dass die Hürde von Menschen verursacht wurde, da menschliche Entscheidungen oder historische Umstände die Trainingsdaten unbrauchbar machen. Die KI-Systeme sind bereit, wir müssen nur die Spirale durchbrechen, um ein gerechteres Personalmanagement zu schaffen.
Als nächstes folgt natürlich die bahnbrechende Effizienzsteigerung, die verspricht, uns Menschen den Arbeitsalltag zu erleichtern. Ganze Prozesse werden einfacher, schneller und sicherer. Menschen sparen Zeit bei monotonen, sich wiederholenden Aufgaben, die sie nun in kreative, kreative Projekte stecken und so Innovationen vorantreiben können.
Obwohl KI laut Weltwirtschaftsforum 85 Millionen Arbeitsplätze überflüssig machen wird, werden laut derselben Studie 97 Millionen neue geschaffen. KI-gestützte Software verändert die Arbeitswelt wirklich, nicht nur.
Die Art und Weise, wie wir arbeiten, wird sich in Zukunft noch stärker verändern, da Natural Language Processing die Befehlseingabe revolutioniert. Anstatt einzelne Tools zu bedienen und die Schritte bis zum gewünschten Endergebnis selbst durchzuführen, geben wir der KI einfach per Spracheingabe die Zielidee vor und stimmen nur die sogenannten Prompts ab. Benutzeroberflächen werden deutlich individueller werden, da der Bediener auch als Nicht-Programmierer in der Lage sein wird, die Zielidee seiner Benutzeroberfläche zu formulieren, den Rest erledigt die KI.
Das technische Know-how zur Bedienung dieser neuen Art von Software sollte in die Schulen einfließen, sodass wir schon jetzt den kommenden Generationen einen guten Start in diese Welt ermöglichen. Neu an dieser Revolution wird sein, dass sie — anders als die Industrialisierung — nicht einfache, manuelle Tätigkeiten betreffen wird, sondern den Großteil der klassischen, administrativen Bürojobs. Den Menschen, deren Jobs durch KI überflüssig werden, sollte eine umfassende Ausbildung angeboten werden, damit sie anschließend gut ausgebildet wieder in den Arbeitsmarkt eintreten können. Vorausgesetzt, wir gestalten den Wandel auf soziale und vernünftige Weise, werden wir als stärkere Gesellschaft hervorgehen und in allen Bereichen von dieser Technologie profitieren.
Die Vision von Forschern und Autoherstellern ist, dass KI-basiertes autonomes Fahren den Straßenverkehr sicherer und reibungsloser machen wird. Ethisch besonders explosiv wird es jedoch, wenn Roboter die menschliche Gesundheit gefährden können. Bis ein großer Teil aller automobilen Verkehrsteilnehmer tatsächlich autonom ist, befinden wir uns mitten in einem spannenden Transformationsprozess. Hier prallen insbesondere technischer Fortschritt, ethische Bedenken und langwierige Gesetzgebungsverfahren aufeinander.
Juristen und Ethiker befürchten die Situation, in der beispielsweise ein technischer Fehler oder eine von KI getroffene Entscheidung dazu führt, dass Menschen auf der Straße verletzt werden. Während sich die Gesellschaft an Unfälle im „menschlichen“ Verkehr gewöhnt hat, löst die Vorstellung eines Unfalls zwischen Mensch und Maschine große Emotionen und Kritik aus.
Ist menschliches Versagen bei gleichem Ergebnis unterschiedlich zu bewerten?
Insofern jedenfalls, da wir ein Rechtssystem haben, das genau das bewertet. Wie schwerwiegend ist die Schuld und was sind die Folgen für die Person, die für den Unfall verantwortlich ist? Ein wesentlicher Bestandteil dieses Prozesses ist auch die rechtliche Anhörung der Person, die den Unfall verursacht hat. Er oder sie kann ihren Standpunkt darlegen und mögliche mildernde Umstände geltend machen. Derzeit ist dies für das „Blackbox-Modell KI“ nicht denkbar. Die Gesellschaft fürchtet also Unfälle ohne eine verantwortliche Partei. Jedenfalls ist die Rechtswissenschaft noch nicht an dem Punkt angelangt, an dem aufkommende Haftungsfragen einheitlich beantwortet werden könnten.
Gleichzeitig spielt das sogenannte Trolley-Dilemma eine Rolle. Das Trolley-Problem ist ein Gedankenexperiment, das 1967 von der Philosophin Philippa Foot erfunden wurde. Die Situation wird in den Neurowissenschaften, der Philosophie und sogar in Film und Fernsehen immer wieder verwendet. Ob in „Game of Thrones“ oder dem Theaterstück „Terror“ von Ferdinand von Schirach.
Das Szenario des Trolley-Problems sieht wie folgt aus: Ein Zug rast auf eine Gruppe von fünf Gleisarbeitern zu. Sie haben die Möglichkeit, sie zu retten, indem Sie in letzter Sekunde einen Schalter umschalten. Aber auf dem Abstellgleis arbeitet noch ein Arbeiter, der jetzt zu Tode überfahren werden würde. Was ist zu tun?
Im Kontext des autonomen Fahrens ist nicht einmal die Entscheidung selbst entscheidend, sondern bereits die Tatsache, dass in diesem Fall eine Software moralische Entscheidungen treffen würde. Eine Maschine entscheidet über die Ethik des Menschen. Aber wie bereits erwähnt, ist Technologie (noch) kein moralischer Akteur. Dementsprechend sollten wir solche schwerwiegenden, ethischen Entscheidungen unter keinen Umständen ihr überlassen.
Andererseits sollte auch nicht vernachlässigt werden, dass KI-gestützte autonome Fahrzeuge die Sicherheit auf den Straßen erheblich erhöhen würden.
Gleichzeitig sparen autonome Fahrzeuge auch enorm viel Zeit. So können Passagiere beispielsweise direkt an ihrem Ziel aus dem Auto aussteigen, und das Fahrzeug sucht selbstständig nach einem geeigneten Parkplatz. Der Verkehr könnte viel reibungsloser ablaufen, da sich eine vernetzte Gruppe von Fahrzeugen auf die ideale Geschwindigkeit „einigen“ könnte. Gleichzeitig könnten Ampeln freigegeben werden, sodass auch sie in die Geschwindigkeitsberechnung einfließen würden. Im Jahr 2015 wurden 88% der Verkehrsunfälle durch Fahrerfehler verursacht, sodass eine erhebliche Reduzierung der Unfälle möglich ist. Fahren unter Alkoholeinfluss würde keine Gefahr mehr darstellen, ebenso wenig wie die Überschätzung der eigenen Fähigkeiten durch den Menschen und die Fehler von Anfängern.
Autonomes Fahren und auch das Trolley-Dilemma sind hier handfeste Paradebeispiele und Stellvertreter für ein grundlegend existierendes Problem: Ethik und Gesetzgebung bieten keine Sicherheit und nehmen daher der Gesellschaft keine Sorgen. In allen Bereichen, in denen KI Entscheidungen trifft, die sich auf die menschliche Gesundheit auswirken, müssen zuerst Ethikberater, dann Gesetzgeber, verlässliche ethische und rechtliche Rahmenbedingungen schaffen. Es muss geklärt werden, wie sich ein autonomes Fahrzeug in Gefahren- und Dilemma-Situationen verhalten soll und wie das Haftungsrecht ausgestaltet werden soll. Nur mit dieser Gewissheit kann Vertrauen in die Vision eines sicheren Verkehrs entstehen.
Auch wenn KI-Systeme selbst (bisher) keine moralischen Rechte und Pflichten mit sich bringen, bringt die fortschreitende Automatisierung von Prozessen Konflikte mit sich, deren wir uns bewusst sein sollten. Einerseits, weil die innovativen Systeme natürlich noch nicht voll ausgereift und völlig fehlerfrei sind, und andererseits, weil wir als Gesellschaft überlegen müssen, welche Prozesse wir in welchem Umfang der KI überlassen wollen. KI-Systeme bieten natürlich auch Vorteile, die bisher undenkbar waren.
Eines der großen Probleme, die uns in Zukunft beschäftigen werden, ist die Rückverfolgbarkeit und Differenzierung von echten und KI-generierten Inhalten (sogenannte Deep Fakes), die von echten Nutzern oder programmierten Social Bots verbreitet werden.
Die Fähigkeiten der KI reichen heute von der Generierung von Ton-, Foto- oder Videoaufnahmen in immer besserer Qualität bis hin zur Massenverbreitung durch soziale Bots.
Deep-Fakes sind synthetische Medien wie Bilder, Audios oder Videos, die mithilfe von KI so manipuliert wurden, dass sie täuschend echt wirken. Die KI wird mit Bildern oder Videos einer Person trainiert, um dann neues Filmmaterial von dieser Person zu erstellen oder vorhandenes Filmmaterial so zu verändern, dass die Person etwas sagt oder tut, was sie nicht wirklich gesagt oder getan hat. Deep-Fakes können nicht nur von Politikern oder anderen Mitgliedern der Öffentlichkeit gemacht werden, sondern auch von Privatpersonen.
Tools wie Dall-E entwickeln sich so schnell, dass es nur eine Frage der Zeit ist, bis das menschliche Auge oder zumindest der unbesorgte Benutzer nicht mehr unterscheiden kann, ob das Gesehene und/oder Gehörte real oder generiert ist. Diese KI-generierten Deepfakes können dann mithilfe von KI-basierten Social Bots in großem Umfang verbreitet werden.
Social Bots sind automatisierte Softwareprogramme, die in sozialen Medien eingesetzt werden. Sie generieren automatisch Inhalte wie Beiträge, Likes, Kommentare oder geteilte Beiträge. Die Gefahr, die von Social Bots ausgeht, ist vielfältig. Einerseits können sie genutzt werden, um die öffentliche Meinung bewusst zu manipulieren, indem Fehlinformationen verbreitet oder der Diskurs gelenkt wird. Andererseits können sie als Fake-Accounts agieren und den Anschein erwecken, dass eine Meinung oder ein Anliegen, das in Wirklichkeit nur von wenigen kontrolliert wird, breite Unterstützung in der Öffentlichkeit findet.
Soziale Bots werden von Unternehmen, Staaten oder politischen Gruppen zur Beeinflussung eingesetzt und sind manchmal schwer von echten Nutzern zu unterscheiden. Sie untergraben somit Authentizität und Glaubwürdigkeit in sozialen Netzwerken und gefährden unsere demokratischen Prozesse.
Aber selbst mit der einfachen Verwendung von beispielsweise ChatGPT werden wir mit Problemen konfrontiert. Dies liegt daran, dass die Quellen der von ChatGPT generierten Antworten nicht transparent sind und (bisher) nicht zurückverfolgt werden können. In Suchergebnissen von z.B. Google gibt es — meistens — einen Verweis auf die zugrunde liegenden Datenquellen. Die Intransparenz der Antworten birgt das Risiko, dass frühere Manipulationen, also der Datenquellen von z.B. ChatGPT, die Antworten in großem Umfang beeinflussen können.
Nur ein naiver Mensch würde behaupten, dass KI die Glaubwürdigkeit der Texte, Bilder und Videos, die im Internet zu finden sind, qualitativ mindert. Schon vor Social Bots, Dall-E und anderen KI-Systemen war es immer notwendig, eine seriöse Quellenanalyse durchzuführen. Quantitativ werden wir jedoch sicherlich vor neuen Herausforderungen stehen, da die Erstellung und Verbreitung von Fake News und Deep Fakes inzwischen niedrigschwelliger geworden ist.
Andererseits ist die KI selbst auch hier eine Lösung. KI-Algorithmen können in kurzer Zeit eine große Menge an Inhalten und Metadaten analysieren, um unauthentische oder manipulierte Inhalte zu identifizieren. Wie bei jeder Technologie, die gut oder schlecht eingesetzt werden kann, beginnt das Wettrüsten. Während die Verbreitung und Erstellung viel einfacher geworden sind, sind leistungsstarke KI-Systeme auch in der Lage, riesige Datenmengen in kurzer Zeit zu analysieren, um auf tiefgreifende Fälschungen hinzuweisen. Einfach ausgedrückt: Die Ära der (KI-) Räuber und (KI-) Gendarmen beginnt — genau wie im „echten“ Leben.
KI-basierte Programme sind in Personalabteilungen hoch im Kurs. Die Hoffnung ist, dass sie beispielsweise Rekrutierungsprozesse schneller, effizienter und vor allem fairer machen. Im traditionellen Rekrutierungsprozess gibt es mehrere Faktoren, die zu Vorurteilen führen können: zum Beispiel Vorurteile in Bezug auf Primat und Voreingenommenheit in Bezug auf Aktualität. Primat Bias bedeutet, dass Bewerber, die zu Beginn von Personalvermittlern überprüft werden, bevorzugt werden.
Die Bewerbungen, die am Ende analysiert werden, bleiben auch besser im Gedächtnis und werden daher bei der Auswahl bevorzugt; dieses Phänomen wird als Aktualitätsbias bezeichnet. Im Gegensatz dazu sind die Bewerber, die sich in der Mitte des Bewerbungsstapels befinden, benachteiligt. Hinzu kommt die unbewusste Voreingenommenheit, die sich auf den Prozess der unbewussten und ungewollten Bildung persönlicher Meinungen und damit Vorurteile gegenüber anderen Menschen bezieht. Man möchte solchen kognitiven Verzerrungen der Recruiter mit Software entgegenwirken. Schließlich kann ein Computer keine unbewussten Vorurteile oder unbegründete Sympathien gegenüber Bewerbern oder Mitarbeitern hegen. Zumindest ist das die Theorie. Leider führt der Einsatz von Software gelegentlich zu einem sogenannten KI-Bias.
Ein KI-Bias beschreibt eine Voreingenommenheit in der künstlichen Intelligenz, die zu einer unfairen oder diskriminierenden Behandlung bestimmter Gruppen führt. Eine solche Voreingenommenheit kann bewusst einprogrammiert sein, kann sich aber auch unbeabsichtigt während des Trainings der KI einschleichen. Aufgrund der großen Menge an Trainingsdaten und der Komplexität der KI-Modelle ist es oft schwierig, solche Verzerrungen zu erkennen oder zu vermeiden.
Amazon ist beispielsweise 2018 auf dieses Problem gestoßen, weil es seinen Algorithmus für die Einstellung von Mitarbeitern auf der Grundlage der historischen Leistung der Mitarbeiter entwickelt hat. Problematischerweise wurden hellhäutige Männer bevorzugt, weil sie zuvor im Unternehmen die besten Leistungen erbracht hatten, was letztlich darauf zurückzuführen war, dass die Mehrheit der Belegschaft aus hellhäutigen Männern bestand. Infolgedessen erhielt diese Personengruppe von der KI höhere Punktzahlen, weshalb sie im Rekrutierungsprozess bevorzugt wurden.
Der KI-Rekrutierungsprozess von Amazon wurde in der Folge unter anderem aufgrund der Diskriminierung von Frauen eingestellt.
Dennoch werden Einsatzmöglichkeiten dort gesehen, wo es die tägliche Arbeit der Personalabteilungen vereinfacht. „Aber es bleibt ein Personalgeschäft mit echten Menschen, die datengetrieben sein werden“, sagt Stefan. „Langfristig wird sich der Einsatz von KI im Personalmanagement durchsetzen“, fährt Stefan fort, „einfach aufgrund der zunehmend daten- und informationsgesteuerten Unternehmensführung, auch außerhalb der Personalabteilung.“
Sobald Sie also ein fehlerfreies Training von KI-Systemen mit qualifizierten Trainingsdaten garantieren können, ist die Technologie im Personalmanagement absolut zukunftsfähig. Es ist auch wichtig, sich daran zu erinnern, dass die Hürde von Menschen verursacht wurde, da menschliche Entscheidungen oder historische Umstände die Trainingsdaten unbrauchbar machen. Die KI-Systeme sind bereit, wir müssen nur die Spirale durchbrechen, um ein gerechteres Personalmanagement zu schaffen.
Als nächstes folgt natürlich die bahnbrechende Effizienzsteigerung, die verspricht, uns Menschen den Arbeitsalltag zu erleichtern. Ganze Prozesse werden einfacher, schneller und sicherer. Menschen sparen Zeit bei monotonen, sich wiederholenden Aufgaben, die sie nun in kreative, kreative Projekte stecken und so Innovationen vorantreiben können.
Obwohl KI laut Weltwirtschaftsforum 85 Millionen Arbeitsplätze überflüssig machen wird, werden laut derselben Studie 97 Millionen neue geschaffen. KI-gestützte Software verändert die Arbeitswelt wirklich, nicht nur.
Die Art und Weise, wie wir arbeiten, wird sich in Zukunft noch stärker verändern, da Natural Language Processing die Befehlseingabe revolutioniert. Anstatt einzelne Tools zu bedienen und die Schritte bis zum gewünschten Endergebnis selbst durchzuführen, geben wir der KI einfach per Spracheingabe die Zielidee vor und stimmen nur die sogenannten Prompts ab. Benutzeroberflächen werden deutlich individueller werden, da der Bediener auch als Nicht-Programmierer in der Lage sein wird, die Zielidee seiner Benutzeroberfläche zu formulieren, den Rest erledigt die KI.
Das technische Know-how zur Bedienung dieser neuen Art von Software sollte in die Schulen einfließen, sodass wir schon jetzt den kommenden Generationen einen guten Start in diese Welt ermöglichen. Neu an dieser Revolution wird sein, dass sie — anders als die Industrialisierung — nicht einfache, manuelle Tätigkeiten betreffen wird, sondern den Großteil der klassischen, administrativen Bürojobs. Den Menschen, deren Jobs durch KI überflüssig werden, sollte eine umfassende Ausbildung angeboten werden, damit sie anschließend gut ausgebildet wieder in den Arbeitsmarkt eintreten können. Vorausgesetzt, wir gestalten den Wandel auf soziale und vernünftige Weise, werden wir als stärkere Gesellschaft hervorgehen und in allen Bereichen von dieser Technologie profitieren.
Die Vision von Forschern und Autoherstellern ist, dass KI-basiertes autonomes Fahren den Straßenverkehr sicherer und reibungsloser machen wird. Ethisch besonders explosiv wird es jedoch, wenn Roboter die menschliche Gesundheit gefährden können. Bis ein großer Teil aller automobilen Verkehrsteilnehmer tatsächlich autonom ist, befinden wir uns mitten in einem spannenden Transformationsprozess. Hier prallen insbesondere technischer Fortschritt, ethische Bedenken und langwierige Gesetzgebungsverfahren aufeinander.
Juristen und Ethiker befürchten die Situation, in der beispielsweise ein technischer Fehler oder eine von KI getroffene Entscheidung dazu führt, dass Menschen auf der Straße verletzt werden. Während sich die Gesellschaft an Unfälle im „menschlichen“ Verkehr gewöhnt hat, löst die Vorstellung eines Unfalls zwischen Mensch und Maschine große Emotionen und Kritik aus.
Ist menschliches Versagen bei gleichem Ergebnis unterschiedlich zu bewerten?
Insofern jedenfalls, da wir ein Rechtssystem haben, das genau das bewertet. Wie schwerwiegend ist die Schuld und was sind die Folgen für die Person, die für den Unfall verantwortlich ist? Ein wesentlicher Bestandteil dieses Prozesses ist auch die rechtliche Anhörung der Person, die den Unfall verursacht hat. Er oder sie kann ihren Standpunkt darlegen und mögliche mildernde Umstände geltend machen. Derzeit ist dies für das „Blackbox-Modell KI“ nicht denkbar. Die Gesellschaft fürchtet also Unfälle ohne eine verantwortliche Partei. Jedenfalls ist die Rechtswissenschaft noch nicht an dem Punkt angelangt, an dem aufkommende Haftungsfragen einheitlich beantwortet werden könnten.
Gleichzeitig spielt das sogenannte Trolley-Dilemma eine Rolle. Das Trolley-Problem ist ein Gedankenexperiment, das 1967 von der Philosophin Philippa Foot erfunden wurde. Die Situation wird in den Neurowissenschaften, der Philosophie und sogar in Film und Fernsehen immer wieder verwendet. Ob in „Game of Thrones“ oder dem Theaterstück „Terror“ von Ferdinand von Schirach.
Das Szenario des Trolley-Problems sieht wie folgt aus: Ein Zug rast auf eine Gruppe von fünf Gleisarbeitern zu. Sie haben die Möglichkeit, sie zu retten, indem Sie in letzter Sekunde einen Schalter umschalten. Aber auf dem Abstellgleis arbeitet noch ein Arbeiter, der jetzt zu Tode überfahren werden würde. Was ist zu tun?
Im Kontext des autonomen Fahrens ist nicht einmal die Entscheidung selbst entscheidend, sondern bereits die Tatsache, dass in diesem Fall eine Software moralische Entscheidungen treffen würde. Eine Maschine entscheidet über die Ethik des Menschen. Aber wie bereits erwähnt, ist Technologie (noch) kein moralischer Akteur. Dementsprechend sollten wir solche schwerwiegenden, ethischen Entscheidungen unter keinen Umständen ihr überlassen.
Andererseits sollte auch nicht vernachlässigt werden, dass KI-gestützte autonome Fahrzeuge die Sicherheit auf den Straßen erheblich erhöhen würden.
Gleichzeitig sparen autonome Fahrzeuge auch enorm viel Zeit. So können Passagiere beispielsweise direkt an ihrem Ziel aus dem Auto aussteigen, und das Fahrzeug sucht selbstständig nach einem geeigneten Parkplatz. Der Verkehr könnte viel reibungsloser ablaufen, da sich eine vernetzte Gruppe von Fahrzeugen auf die ideale Geschwindigkeit „einigen“ könnte. Gleichzeitig könnten Ampeln freigegeben werden, sodass auch sie in die Geschwindigkeitsberechnung einfließen würden. Im Jahr 2015 wurden 88% der Verkehrsunfälle durch Fahrerfehler verursacht, sodass eine erhebliche Reduzierung der Unfälle möglich ist. Fahren unter Alkoholeinfluss würde keine Gefahr mehr darstellen, ebenso wenig wie die Überschätzung der eigenen Fähigkeiten durch den Menschen und die Fehler von Anfängern.
Autonomes Fahren und auch das Trolley-Dilemma sind hier handfeste Paradebeispiele und Stellvertreter für ein grundlegend existierendes Problem: Ethik und Gesetzgebung bieten keine Sicherheit und nehmen daher der Gesellschaft keine Sorgen. In allen Bereichen, in denen KI Entscheidungen trifft, die sich auf die menschliche Gesundheit auswirken, müssen zuerst Ethikberater, dann Gesetzgeber, verlässliche ethische und rechtliche Rahmenbedingungen schaffen. Es muss geklärt werden, wie sich ein autonomes Fahrzeug in Gefahren- und Dilemma-Situationen verhalten soll und wie das Haftungsrecht ausgestaltet werden soll. Nur mit dieser Gewissheit kann Vertrauen in die Vision eines sicheren Verkehrs entstehen.
Auch wenn KI-Systeme selbst (bisher) keine moralischen Rechte und Pflichten mit sich bringen, bringt die fortschreitende Automatisierung von Prozessen Konflikte mit sich, deren wir uns bewusst sein sollten. Einerseits, weil die innovativen Systeme natürlich noch nicht voll ausgereift und völlig fehlerfrei sind, und andererseits, weil wir als Gesellschaft überlegen müssen, welche Prozesse wir in welchem Umfang der KI überlassen wollen. KI-Systeme bieten natürlich auch Vorteile, die bisher undenkbar waren.
Eines der großen Probleme, die uns in Zukunft beschäftigen werden, ist die Rückverfolgbarkeit und Differenzierung von echten und KI-generierten Inhalten (sogenannte Deep Fakes), die von echten Nutzern oder programmierten Social Bots verbreitet werden.
Die Fähigkeiten der KI reichen heute von der Generierung von Ton-, Foto- oder Videoaufnahmen in immer besserer Qualität bis hin zur Massenverbreitung durch soziale Bots.
Deep-Fakes sind synthetische Medien wie Bilder, Audios oder Videos, die mithilfe von KI so manipuliert wurden, dass sie täuschend echt wirken. Die KI wird mit Bildern oder Videos einer Person trainiert, um dann neues Filmmaterial von dieser Person zu erstellen oder vorhandenes Filmmaterial so zu verändern, dass die Person etwas sagt oder tut, was sie nicht wirklich gesagt oder getan hat. Deep-Fakes können nicht nur von Politikern oder anderen Mitgliedern der Öffentlichkeit gemacht werden, sondern auch von Privatpersonen.
Tools wie Dall-E entwickeln sich so schnell, dass es nur eine Frage der Zeit ist, bis das menschliche Auge oder zumindest der unbesorgte Benutzer nicht mehr unterscheiden kann, ob das Gesehene und/oder Gehörte real oder generiert ist. Diese KI-generierten Deepfakes können dann mithilfe von KI-basierten Social Bots in großem Umfang verbreitet werden.
Social Bots sind automatisierte Softwareprogramme, die in sozialen Medien eingesetzt werden. Sie generieren automatisch Inhalte wie Beiträge, Likes, Kommentare oder geteilte Beiträge. Die Gefahr, die von Social Bots ausgeht, ist vielfältig. Einerseits können sie genutzt werden, um die öffentliche Meinung bewusst zu manipulieren, indem Fehlinformationen verbreitet oder der Diskurs gelenkt wird. Andererseits können sie als Fake-Accounts agieren und den Anschein erwecken, dass eine Meinung oder ein Anliegen, das in Wirklichkeit nur von wenigen kontrolliert wird, breite Unterstützung in der Öffentlichkeit findet.
Soziale Bots werden von Unternehmen, Staaten oder politischen Gruppen zur Beeinflussung eingesetzt und sind manchmal schwer von echten Nutzern zu unterscheiden. Sie untergraben somit Authentizität und Glaubwürdigkeit in sozialen Netzwerken und gefährden unsere demokratischen Prozesse.
Aber selbst mit der einfachen Verwendung von beispielsweise ChatGPT werden wir mit Problemen konfrontiert. Dies liegt daran, dass die Quellen der von ChatGPT generierten Antworten nicht transparent sind und (bisher) nicht zurückverfolgt werden können. In Suchergebnissen von z.B. Google gibt es — meistens — einen Verweis auf die zugrunde liegenden Datenquellen. Die Intransparenz der Antworten birgt das Risiko, dass frühere Manipulationen, also der Datenquellen von z.B. ChatGPT, die Antworten in großem Umfang beeinflussen können.
Nur ein naiver Mensch würde behaupten, dass KI die Glaubwürdigkeit der Texte, Bilder und Videos, die im Internet zu finden sind, qualitativ mindert. Schon vor Social Bots, Dall-E und anderen KI-Systemen war es immer notwendig, eine seriöse Quellenanalyse durchzuführen. Quantitativ werden wir jedoch sicherlich vor neuen Herausforderungen stehen, da die Erstellung und Verbreitung von Fake News und Deep Fakes inzwischen niedrigschwelliger geworden ist.
Andererseits ist die KI selbst auch hier eine Lösung. KI-Algorithmen können in kurzer Zeit eine große Menge an Inhalten und Metadaten analysieren, um unauthentische oder manipulierte Inhalte zu identifizieren. Wie bei jeder Technologie, die gut oder schlecht eingesetzt werden kann, beginnt das Wettrüsten. Während die Verbreitung und Erstellung viel einfacher geworden sind, sind leistungsstarke KI-Systeme auch in der Lage, riesige Datenmengen in kurzer Zeit zu analysieren, um auf tiefgreifende Fälschungen hinzuweisen. Einfach ausgedrückt: Die Ära der (KI-) Räuber und (KI-) Gendarmen beginnt — genau wie im „echten“ Leben.
KI-basierte Programme sind in Personalabteilungen hoch im Kurs. Die Hoffnung ist, dass sie beispielsweise Rekrutierungsprozesse schneller, effizienter und vor allem fairer machen. Im traditionellen Rekrutierungsprozess gibt es mehrere Faktoren, die zu Vorurteilen führen können: zum Beispiel Vorurteile in Bezug auf Primat und Voreingenommenheit in Bezug auf Aktualität. Primat Bias bedeutet, dass Bewerber, die zu Beginn von Personalvermittlern überprüft werden, bevorzugt werden.
Die Bewerbungen, die am Ende analysiert werden, bleiben auch besser im Gedächtnis und werden daher bei der Auswahl bevorzugt; dieses Phänomen wird als Aktualitätsbias bezeichnet. Im Gegensatz dazu sind die Bewerber, die sich in der Mitte des Bewerbungsstapels befinden, benachteiligt. Hinzu kommt die unbewusste Voreingenommenheit, die sich auf den Prozess der unbewussten und ungewollten Bildung persönlicher Meinungen und damit Vorurteile gegenüber anderen Menschen bezieht. Man möchte solchen kognitiven Verzerrungen der Recruiter mit Software entgegenwirken. Schließlich kann ein Computer keine unbewussten Vorurteile oder unbegründete Sympathien gegenüber Bewerbern oder Mitarbeitern hegen. Zumindest ist das die Theorie. Leider führt der Einsatz von Software gelegentlich zu einem sogenannten KI-Bias.
Ein KI-Bias beschreibt eine Voreingenommenheit in der künstlichen Intelligenz, die zu einer unfairen oder diskriminierenden Behandlung bestimmter Gruppen führt. Eine solche Voreingenommenheit kann bewusst einprogrammiert sein, kann sich aber auch unbeabsichtigt während des Trainings der KI einschleichen. Aufgrund der großen Menge an Trainingsdaten und der Komplexität der KI-Modelle ist es oft schwierig, solche Verzerrungen zu erkennen oder zu vermeiden.
Amazon ist beispielsweise 2018 auf dieses Problem gestoßen, weil es seinen Algorithmus für die Einstellung von Mitarbeitern auf der Grundlage der historischen Leistung der Mitarbeiter entwickelt hat. Problematischerweise wurden hellhäutige Männer bevorzugt, weil sie zuvor im Unternehmen die besten Leistungen erbracht hatten, was letztlich darauf zurückzuführen war, dass die Mehrheit der Belegschaft aus hellhäutigen Männern bestand. Infolgedessen erhielt diese Personengruppe von der KI höhere Punktzahlen, weshalb sie im Rekrutierungsprozess bevorzugt wurden.
Der KI-Rekrutierungsprozess von Amazon wurde in der Folge unter anderem aufgrund der Diskriminierung von Frauen eingestellt.
Dennoch werden Einsatzmöglichkeiten dort gesehen, wo es die tägliche Arbeit der Personalabteilungen vereinfacht. „Aber es bleibt ein Personalgeschäft mit echten Menschen, die datengetrieben sein werden“, sagt Stefan. „Langfristig wird sich der Einsatz von KI im Personalmanagement durchsetzen“, fährt Stefan fort, „einfach aufgrund der zunehmend daten- und informationsgesteuerten Unternehmensführung, auch außerhalb der Personalabteilung.“
Sobald Sie also ein fehlerfreies Training von KI-Systemen mit qualifizierten Trainingsdaten garantieren können, ist die Technologie im Personalmanagement absolut zukunftsfähig. Es ist auch wichtig, sich daran zu erinnern, dass die Hürde von Menschen verursacht wurde, da menschliche Entscheidungen oder historische Umstände die Trainingsdaten unbrauchbar machen. Die KI-Systeme sind bereit, wir müssen nur die Spirale durchbrechen, um ein gerechteres Personalmanagement zu schaffen.
Als nächstes folgt natürlich die bahnbrechende Effizienzsteigerung, die verspricht, uns Menschen den Arbeitsalltag zu erleichtern. Ganze Prozesse werden einfacher, schneller und sicherer. Menschen sparen Zeit bei monotonen, sich wiederholenden Aufgaben, die sie nun in kreative, kreative Projekte stecken und so Innovationen vorantreiben können.
Obwohl KI laut Weltwirtschaftsforum 85 Millionen Arbeitsplätze überflüssig machen wird, werden laut derselben Studie 97 Millionen neue geschaffen. KI-gestützte Software verändert die Arbeitswelt wirklich, nicht nur.
Die Art und Weise, wie wir arbeiten, wird sich in Zukunft noch stärker verändern, da Natural Language Processing die Befehlseingabe revolutioniert. Anstatt einzelne Tools zu bedienen und die Schritte bis zum gewünschten Endergebnis selbst durchzuführen, geben wir der KI einfach per Spracheingabe die Zielidee vor und stimmen nur die sogenannten Prompts ab. Benutzeroberflächen werden deutlich individueller werden, da der Bediener auch als Nicht-Programmierer in der Lage sein wird, die Zielidee seiner Benutzeroberfläche zu formulieren, den Rest erledigt die KI.
Das technische Know-how zur Bedienung dieser neuen Art von Software sollte in die Schulen einfließen, sodass wir schon jetzt den kommenden Generationen einen guten Start in diese Welt ermöglichen. Neu an dieser Revolution wird sein, dass sie — anders als die Industrialisierung — nicht einfache, manuelle Tätigkeiten betreffen wird, sondern den Großteil der klassischen, administrativen Bürojobs. Den Menschen, deren Jobs durch KI überflüssig werden, sollte eine umfassende Ausbildung angeboten werden, damit sie anschließend gut ausgebildet wieder in den Arbeitsmarkt eintreten können. Vorausgesetzt, wir gestalten den Wandel auf soziale und vernünftige Weise, werden wir als stärkere Gesellschaft hervorgehen und in allen Bereichen von dieser Technologie profitieren.
Die Vision von Forschern und Autoherstellern ist, dass KI-basiertes autonomes Fahren den Straßenverkehr sicherer und reibungsloser machen wird. Ethisch besonders explosiv wird es jedoch, wenn Roboter die menschliche Gesundheit gefährden können. Bis ein großer Teil aller automobilen Verkehrsteilnehmer tatsächlich autonom ist, befinden wir uns mitten in einem spannenden Transformationsprozess. Hier prallen insbesondere technischer Fortschritt, ethische Bedenken und langwierige Gesetzgebungsverfahren aufeinander.
Juristen und Ethiker befürchten die Situation, in der beispielsweise ein technischer Fehler oder eine von KI getroffene Entscheidung dazu führt, dass Menschen auf der Straße verletzt werden. Während sich die Gesellschaft an Unfälle im „menschlichen“ Verkehr gewöhnt hat, löst die Vorstellung eines Unfalls zwischen Mensch und Maschine große Emotionen und Kritik aus.
Ist menschliches Versagen bei gleichem Ergebnis unterschiedlich zu bewerten?
Insofern jedenfalls, da wir ein Rechtssystem haben, das genau das bewertet. Wie schwerwiegend ist die Schuld und was sind die Folgen für die Person, die für den Unfall verantwortlich ist? Ein wesentlicher Bestandteil dieses Prozesses ist auch die rechtliche Anhörung der Person, die den Unfall verursacht hat. Er oder sie kann ihren Standpunkt darlegen und mögliche mildernde Umstände geltend machen. Derzeit ist dies für das „Blackbox-Modell KI“ nicht denkbar. Die Gesellschaft fürchtet also Unfälle ohne eine verantwortliche Partei. Jedenfalls ist die Rechtswissenschaft noch nicht an dem Punkt angelangt, an dem aufkommende Haftungsfragen einheitlich beantwortet werden könnten.
Gleichzeitig spielt das sogenannte Trolley-Dilemma eine Rolle. Das Trolley-Problem ist ein Gedankenexperiment, das 1967 von der Philosophin Philippa Foot erfunden wurde. Die Situation wird in den Neurowissenschaften, der Philosophie und sogar in Film und Fernsehen immer wieder verwendet. Ob in „Game of Thrones“ oder dem Theaterstück „Terror“ von Ferdinand von Schirach.
Das Szenario des Trolley-Problems sieht wie folgt aus: Ein Zug rast auf eine Gruppe von fünf Gleisarbeitern zu. Sie haben die Möglichkeit, sie zu retten, indem Sie in letzter Sekunde einen Schalter umschalten. Aber auf dem Abstellgleis arbeitet noch ein Arbeiter, der jetzt zu Tode überfahren werden würde. Was ist zu tun?
Im Kontext des autonomen Fahrens ist nicht einmal die Entscheidung selbst entscheidend, sondern bereits die Tatsache, dass in diesem Fall eine Software moralische Entscheidungen treffen würde. Eine Maschine entscheidet über die Ethik des Menschen. Aber wie bereits erwähnt, ist Technologie (noch) kein moralischer Akteur. Dementsprechend sollten wir solche schwerwiegenden, ethischen Entscheidungen unter keinen Umständen ihr überlassen.
Andererseits sollte auch nicht vernachlässigt werden, dass KI-gestützte autonome Fahrzeuge die Sicherheit auf den Straßen erheblich erhöhen würden.
Gleichzeitig sparen autonome Fahrzeuge auch enorm viel Zeit. So können Passagiere beispielsweise direkt an ihrem Ziel aus dem Auto aussteigen, und das Fahrzeug sucht selbstständig nach einem geeigneten Parkplatz. Der Verkehr könnte viel reibungsloser ablaufen, da sich eine vernetzte Gruppe von Fahrzeugen auf die ideale Geschwindigkeit „einigen“ könnte. Gleichzeitig könnten Ampeln freigegeben werden, sodass auch sie in die Geschwindigkeitsberechnung einfließen würden. Im Jahr 2015 wurden 88% der Verkehrsunfälle durch Fahrerfehler verursacht, sodass eine erhebliche Reduzierung der Unfälle möglich ist. Fahren unter Alkoholeinfluss würde keine Gefahr mehr darstellen, ebenso wenig wie die Überschätzung der eigenen Fähigkeiten durch den Menschen und die Fehler von Anfängern.
Autonomes Fahren und auch das Trolley-Dilemma sind hier handfeste Paradebeispiele und Stellvertreter für ein grundlegend existierendes Problem: Ethik und Gesetzgebung bieten keine Sicherheit und nehmen daher der Gesellschaft keine Sorgen. In allen Bereichen, in denen KI Entscheidungen trifft, die sich auf die menschliche Gesundheit auswirken, müssen zuerst Ethikberater, dann Gesetzgeber, verlässliche ethische und rechtliche Rahmenbedingungen schaffen. Es muss geklärt werden, wie sich ein autonomes Fahrzeug in Gefahren- und Dilemma-Situationen verhalten soll und wie das Haftungsrecht ausgestaltet werden soll. Nur mit dieser Gewissheit kann Vertrauen in die Vision eines sicheren Verkehrs entstehen.
Während die US-Regierung weiterhin sehr zögerlich ist, dem Kongress eine KI-Regulierung vorzulegen, ist die Europäische Union (EU) politisch führend und steht kurz vor der Verabschiedung des KI-Gesetzes. Es regelt einige Aspekte der KI, darunter Gesichtserkennung, Schutz kritischer öffentlicher Infrastrukturen, Nichtdiskriminierung und verbindliche Risikobewertungen für Entwickler. Einige erste Ansätze lassen sich auch auf nationaler Ebene beobachten, beispielsweise in Deutschland. Dort fördert das Bundesministerium für Wirtschaft und Klima das Projekt „Foresight“, das ethische Richtlinien für KI erforscht und definiert.
Mit dem KI-Gesetz will die EU die Mitgliedsstaaten fit für diesen Wendepunkt machen; das Hauptaugenmerk liegt auf „Exzellenz in KI“, also Wettbewerbsfähigkeit und „vertrauenswürdiger KI“. Ein Balanceakt zwischen Regulierung und dem Nährboden für Innovation.
Denn genau dieser Balanceakt wird wichtig sein, wenn Europa im Vergleich zu den USA und China nicht abgehängt werden will. Datenschutzbestimmungen sind ein großes Innovationshemmnis auf dem KI-Markt, da es sich um ein datengesteuertes Unternehmen handelt. Nicht umsonst ist Google auf dem chinesischen Markt nicht verfügbar, forscht aber gleichzeitig dort. Ganz einfach, weil riesige Datenmengen für eine effektive Weiterentwicklung der KI benötigt werden.
Dynamische, an Anwendungsfeldern orientierte Regelungen sind ein sinnvoller Weg; KI sollte unter keinen Umständen als solche reguliert werden.
Während politische Akteure in erster Linie durch Trägheit auffallen, sind es private Unternehmen, NGOs und einzelne Philosophen, die daran arbeiten, die neue Situation philosophisch, rechtlich und wirtschaftlich zu bewerten und Leitplanken für einen sinnvollen Einsatz der KI-Technologie zu schaffen.
Der Urvater davon ist zweifellos das Modell PAPA, das 1986 von Richard Mason entworfen wurde. Damals prognostizierte Mason vier grundlegende Probleme des Informationszeitalters: Datenschutz, Zugänglichkeit, Eigentum und Genauigkeit.
Datenschutz bedeutet im Allgemeinen das Recht zu entscheiden, ob, wann, wie und an wen personenbezogene oder organisatorische Informationen weitergegeben werden. Zwei Hauptfaktoren bedrohen unsere Privatsphäre heute: das Wachstum der Informationstechnologie und der zunehmende Wert von Informationen bei der Entscheidungsfindung.
Barrierefreiheit beschreibt, wer die Erlaubnis hat, auf die Informationen zuzugreifen, wer die Rechte oder Schlüssel hat, um darauf zuzugreifen, welche Daten eine Person oder Organisation mit welchen Schutzmaßnahmen und unter welchen Bedingungen erwerben kann.
Eigentumsfragen beziehen sich auf das Eigentum und den Wert von Informationen, insbesondere geistigem Eigentum. Dabei geht es um Fragen, wem die Informationen gehören, welchen Gegenwert sie haben und wie der Zugang zu den Informationen oder Rechten verteilt werden sollte.
Genauigkeit ist wichtig, um Fehler oder Verzerrungen zu vermeiden. Aber wer ist für die Richtigkeit und Authentizität der Informationen verantwortlich? Wie können wir sicherstellen, dass Daten korrekt eingegeben und verarbeitet werden? Und wer übernimmt die Verantwortung für Fehler und entschädigt die Betroffenen?
Das AI4People-Modell ist das Ergebnis der Arbeit des AI4People Scientific Committee, einer Atomium-EISMD-Initiative, die den Grundstein für eine „gute KI-Gesellschaft“ legen soll. Der Ausschuss besteht aus 12 Experten und wird von Luciano Floridi geleitet.
Der Ausschuss erklärt: „KI ist nicht nur ein weiterer Dienst, der reguliert werden muss, wenn er ausgereift ist. Sie ist eine mächtige Kraft, die unser Leben, unsere Interaktionen und unsere Umwelt verändert.“ Die Studie unterteilt den Wirkungsbereich in 7 strategische Sektoren: Automobilindustrie, Banken und Finanzen, Energie, Gesundheitswesen, Versicherungen, Rechtsdienstleistungen, Medien und Technologie. Und gibt präzise Handlungsempfehlungen für jeden dieser einzelnen Sektoren. Die Experten um Floridi kommen auch zu dem Schluss, dass eine Regulierung der KI an sich nicht sinnvoll ist, sondern dass das jeweilige Umfeld, in dem sie eingesetzt werden soll, entscheidend für den Grad der Regulierung ist.
OpenAI, Adobe und TikTok sind nur einige der zehn Unternehmen, die sich zusammengeschlossen haben, um ethischer und verantwortungsvoller zu handeln, wenn es um den Einsatz generativer KI geht.
Diese als Partnership on AI (PAI) bezeichnete Zusammenarbeit wurde gegründet, um von Entwicklern und Anbietern digitaler Medien mehr Transparenz zu fordern. Ziel dieser Empfehlungen ist es, Menschen vor potenziellen Schäden zu schützen, die durch synthetische Medien verursacht werden können. Eine der wichtigsten Neuerungen ist das Versprechen der Unternehmen, Wege zu finden, um Benutzer zu warnen, wenn sie mit etwas interagieren, das von KI-Systemen generiert wird. Dies sollte ihnen helfen, synthetische Medien besser von echten zu unterscheiden und sich vor möglichen Manipulationen zu schützen.
Die Entwicklung neuer Technologien und Verfahren zur Bekämpfung der Verbreitung manipulativer synthetischer Medien ist ebenfalls ein wichtiger Teil der Initiative.
Während die US-Regierung weiterhin sehr zögerlich ist, dem Kongress eine KI-Regulierung vorzulegen, ist die Europäische Union (EU) politisch führend und steht kurz vor der Verabschiedung des KI-Gesetzes. Es regelt einige Aspekte der KI, darunter Gesichtserkennung, Schutz kritischer öffentlicher Infrastrukturen, Nichtdiskriminierung und verbindliche Risikobewertungen für Entwickler. Einige erste Ansätze lassen sich auch auf nationaler Ebene beobachten, beispielsweise in Deutschland. Dort fördert das Bundesministerium für Wirtschaft und Klima das Projekt „Foresight“, das ethische Richtlinien für KI erforscht und definiert.
Mit dem KI-Gesetz will die EU die Mitgliedsstaaten fit für diesen Wendepunkt machen; das Hauptaugenmerk liegt auf „Exzellenz in KI“, also Wettbewerbsfähigkeit und „vertrauenswürdiger KI“. Ein Balanceakt zwischen Regulierung und dem Nährboden für Innovation.
Denn genau dieser Balanceakt wird wichtig sein, wenn Europa im Vergleich zu den USA und China nicht abgehängt werden will. Datenschutzbestimmungen sind ein großes Innovationshemmnis auf dem KI-Markt, da es sich um ein datengesteuertes Unternehmen handelt. Nicht umsonst ist Google auf dem chinesischen Markt nicht verfügbar, forscht aber gleichzeitig dort. Ganz einfach, weil riesige Datenmengen für eine effektive Weiterentwicklung der KI benötigt werden.
Dynamische, an Anwendungsfeldern orientierte Regelungen sind ein sinnvoller Weg; KI sollte unter keinen Umständen als solche reguliert werden.
Während politische Akteure in erster Linie durch Trägheit auffallen, sind es private Unternehmen, NGOs und einzelne Philosophen, die daran arbeiten, die neue Situation philosophisch, rechtlich und wirtschaftlich zu bewerten und Leitplanken für einen sinnvollen Einsatz der KI-Technologie zu schaffen.
Der Urvater davon ist zweifellos das Modell PAPA, das 1986 von Richard Mason entworfen wurde. Damals prognostizierte Mason vier grundlegende Probleme des Informationszeitalters: Datenschutz, Zugänglichkeit, Eigentum und Genauigkeit.
Datenschutz bedeutet im Allgemeinen das Recht zu entscheiden, ob, wann, wie und an wen personenbezogene oder organisatorische Informationen weitergegeben werden. Zwei Hauptfaktoren bedrohen unsere Privatsphäre heute: das Wachstum der Informationstechnologie und der zunehmende Wert von Informationen bei der Entscheidungsfindung.
Barrierefreiheit beschreibt, wer die Erlaubnis hat, auf die Informationen zuzugreifen, wer die Rechte oder Schlüssel hat, um darauf zuzugreifen, welche Daten eine Person oder Organisation mit welchen Schutzmaßnahmen und unter welchen Bedingungen erwerben kann.
Eigentumsfragen beziehen sich auf das Eigentum und den Wert von Informationen, insbesondere geistigem Eigentum. Dabei geht es um Fragen, wem die Informationen gehören, welchen Gegenwert sie haben und wie der Zugang zu den Informationen oder Rechten verteilt werden sollte.
Genauigkeit ist wichtig, um Fehler oder Verzerrungen zu vermeiden. Aber wer ist für die Richtigkeit und Authentizität der Informationen verantwortlich? Wie können wir sicherstellen, dass Daten korrekt eingegeben und verarbeitet werden? Und wer übernimmt die Verantwortung für Fehler und entschädigt die Betroffenen?
Das AI4People-Modell ist das Ergebnis der Arbeit des AI4People Scientific Committee, einer Atomium-EISMD-Initiative, die den Grundstein für eine „gute KI-Gesellschaft“ legen soll. Der Ausschuss besteht aus 12 Experten und wird von Luciano Floridi geleitet.
Der Ausschuss erklärt: „KI ist nicht nur ein weiterer Dienst, der reguliert werden muss, wenn er ausgereift ist. Sie ist eine mächtige Kraft, die unser Leben, unsere Interaktionen und unsere Umwelt verändert.“ Die Studie unterteilt den Wirkungsbereich in 7 strategische Sektoren: Automobilindustrie, Banken und Finanzen, Energie, Gesundheitswesen, Versicherungen, Rechtsdienstleistungen, Medien und Technologie. Und gibt präzise Handlungsempfehlungen für jeden dieser einzelnen Sektoren. Die Experten um Floridi kommen auch zu dem Schluss, dass eine Regulierung der KI an sich nicht sinnvoll ist, sondern dass das jeweilige Umfeld, in dem sie eingesetzt werden soll, entscheidend für den Grad der Regulierung ist.
OpenAI, Adobe und TikTok sind nur einige der zehn Unternehmen, die sich zusammengeschlossen haben, um ethischer und verantwortungsvoller zu handeln, wenn es um den Einsatz generativer KI geht.
Diese als Partnership on AI (PAI) bezeichnete Zusammenarbeit wurde gegründet, um von Entwicklern und Anbietern digitaler Medien mehr Transparenz zu fordern. Ziel dieser Empfehlungen ist es, Menschen vor potenziellen Schäden zu schützen, die durch synthetische Medien verursacht werden können. Eine der wichtigsten Neuerungen ist das Versprechen der Unternehmen, Wege zu finden, um Benutzer zu warnen, wenn sie mit etwas interagieren, das von KI-Systemen generiert wird. Dies sollte ihnen helfen, synthetische Medien besser von echten zu unterscheiden und sich vor möglichen Manipulationen zu schützen.
Die Entwicklung neuer Technologien und Verfahren zur Bekämpfung der Verbreitung manipulativer synthetischer Medien ist ebenfalls ein wichtiger Teil der Initiative.
Während die US-Regierung weiterhin sehr zögerlich ist, dem Kongress eine KI-Regulierung vorzulegen, ist die Europäische Union (EU) politisch führend und steht kurz vor der Verabschiedung des KI-Gesetzes. Es regelt einige Aspekte der KI, darunter Gesichtserkennung, Schutz kritischer öffentlicher Infrastrukturen, Nichtdiskriminierung und verbindliche Risikobewertungen für Entwickler. Einige erste Ansätze lassen sich auch auf nationaler Ebene beobachten, beispielsweise in Deutschland. Dort fördert das Bundesministerium für Wirtschaft und Klima das Projekt „Foresight“, das ethische Richtlinien für KI erforscht und definiert.
Mit dem KI-Gesetz will die EU die Mitgliedsstaaten fit für diesen Wendepunkt machen; das Hauptaugenmerk liegt auf „Exzellenz in KI“, also Wettbewerbsfähigkeit und „vertrauenswürdiger KI“. Ein Balanceakt zwischen Regulierung und dem Nährboden für Innovation.
Denn genau dieser Balanceakt wird wichtig sein, wenn Europa im Vergleich zu den USA und China nicht abgehängt werden will. Datenschutzbestimmungen sind ein großes Innovationshemmnis auf dem KI-Markt, da es sich um ein datengesteuertes Unternehmen handelt. Nicht umsonst ist Google auf dem chinesischen Markt nicht verfügbar, forscht aber gleichzeitig dort. Ganz einfach, weil riesige Datenmengen für eine effektive Weiterentwicklung der KI benötigt werden.
Dynamische, an Anwendungsfeldern orientierte Regelungen sind ein sinnvoller Weg; KI sollte unter keinen Umständen als solche reguliert werden.
Während politische Akteure in erster Linie durch Trägheit auffallen, sind es private Unternehmen, NGOs und einzelne Philosophen, die daran arbeiten, die neue Situation philosophisch, rechtlich und wirtschaftlich zu bewerten und Leitplanken für einen sinnvollen Einsatz der KI-Technologie zu schaffen.
Der Urvater davon ist zweifellos das Modell PAPA, das 1986 von Richard Mason entworfen wurde. Damals prognostizierte Mason vier grundlegende Probleme des Informationszeitalters: Datenschutz, Zugänglichkeit, Eigentum und Genauigkeit.
Datenschutz bedeutet im Allgemeinen das Recht zu entscheiden, ob, wann, wie und an wen personenbezogene oder organisatorische Informationen weitergegeben werden. Zwei Hauptfaktoren bedrohen unsere Privatsphäre heute: das Wachstum der Informationstechnologie und der zunehmende Wert von Informationen bei der Entscheidungsfindung.
Barrierefreiheit beschreibt, wer die Erlaubnis hat, auf die Informationen zuzugreifen, wer die Rechte oder Schlüssel hat, um darauf zuzugreifen, welche Daten eine Person oder Organisation mit welchen Schutzmaßnahmen und unter welchen Bedingungen erwerben kann.
Eigentumsfragen beziehen sich auf das Eigentum und den Wert von Informationen, insbesondere geistigem Eigentum. Dabei geht es um Fragen, wem die Informationen gehören, welchen Gegenwert sie haben und wie der Zugang zu den Informationen oder Rechten verteilt werden sollte.
Genauigkeit ist wichtig, um Fehler oder Verzerrungen zu vermeiden. Aber wer ist für die Richtigkeit und Authentizität der Informationen verantwortlich? Wie können wir sicherstellen, dass Daten korrekt eingegeben und verarbeitet werden? Und wer übernimmt die Verantwortung für Fehler und entschädigt die Betroffenen?
Das AI4People-Modell ist das Ergebnis der Arbeit des AI4People Scientific Committee, einer Atomium-EISMD-Initiative, die den Grundstein für eine „gute KI-Gesellschaft“ legen soll. Der Ausschuss besteht aus 12 Experten und wird von Luciano Floridi geleitet.
Der Ausschuss erklärt: „KI ist nicht nur ein weiterer Dienst, der reguliert werden muss, wenn er ausgereift ist. Sie ist eine mächtige Kraft, die unser Leben, unsere Interaktionen und unsere Umwelt verändert.“ Die Studie unterteilt den Wirkungsbereich in 7 strategische Sektoren: Automobilindustrie, Banken und Finanzen, Energie, Gesundheitswesen, Versicherungen, Rechtsdienstleistungen, Medien und Technologie. Und gibt präzise Handlungsempfehlungen für jeden dieser einzelnen Sektoren. Die Experten um Floridi kommen auch zu dem Schluss, dass eine Regulierung der KI an sich nicht sinnvoll ist, sondern dass das jeweilige Umfeld, in dem sie eingesetzt werden soll, entscheidend für den Grad der Regulierung ist.
OpenAI, Adobe und TikTok sind nur einige der zehn Unternehmen, die sich zusammengeschlossen haben, um ethischer und verantwortungsvoller zu handeln, wenn es um den Einsatz generativer KI geht.
Diese als Partnership on AI (PAI) bezeichnete Zusammenarbeit wurde gegründet, um von Entwicklern und Anbietern digitaler Medien mehr Transparenz zu fordern. Ziel dieser Empfehlungen ist es, Menschen vor potenziellen Schäden zu schützen, die durch synthetische Medien verursacht werden können. Eine der wichtigsten Neuerungen ist das Versprechen der Unternehmen, Wege zu finden, um Benutzer zu warnen, wenn sie mit etwas interagieren, das von KI-Systemen generiert wird. Dies sollte ihnen helfen, synthetische Medien besser von echten zu unterscheiden und sich vor möglichen Manipulationen zu schützen.
Die Entwicklung neuer Technologien und Verfahren zur Bekämpfung der Verbreitung manipulativer synthetischer Medien ist ebenfalls ein wichtiger Teil der Initiative.
Während die US-Regierung weiterhin sehr zögerlich ist, dem Kongress eine KI-Regulierung vorzulegen, ist die Europäische Union (EU) politisch führend und steht kurz vor der Verabschiedung des KI-Gesetzes. Es regelt einige Aspekte der KI, darunter Gesichtserkennung, Schutz kritischer öffentlicher Infrastrukturen, Nichtdiskriminierung und verbindliche Risikobewertungen für Entwickler. Einige erste Ansätze lassen sich auch auf nationaler Ebene beobachten, beispielsweise in Deutschland. Dort fördert das Bundesministerium für Wirtschaft und Klima das Projekt „Foresight“, das ethische Richtlinien für KI erforscht und definiert.
Mit dem KI-Gesetz will die EU die Mitgliedsstaaten fit für diesen Wendepunkt machen; das Hauptaugenmerk liegt auf „Exzellenz in KI“, also Wettbewerbsfähigkeit und „vertrauenswürdiger KI“. Ein Balanceakt zwischen Regulierung und dem Nährboden für Innovation.
Denn genau dieser Balanceakt wird wichtig sein, wenn Europa im Vergleich zu den USA und China nicht abgehängt werden will. Datenschutzbestimmungen sind ein großes Innovationshemmnis auf dem KI-Markt, da es sich um ein datengesteuertes Unternehmen handelt. Nicht umsonst ist Google auf dem chinesischen Markt nicht verfügbar, forscht aber gleichzeitig dort. Ganz einfach, weil riesige Datenmengen für eine effektive Weiterentwicklung der KI benötigt werden.
Dynamische, an Anwendungsfeldern orientierte Regelungen sind ein sinnvoller Weg; KI sollte unter keinen Umständen als solche reguliert werden.
Während politische Akteure in erster Linie durch Trägheit auffallen, sind es private Unternehmen, NGOs und einzelne Philosophen, die daran arbeiten, die neue Situation philosophisch, rechtlich und wirtschaftlich zu bewerten und Leitplanken für einen sinnvollen Einsatz der KI-Technologie zu schaffen.
Der Urvater davon ist zweifellos das Modell PAPA, das 1986 von Richard Mason entworfen wurde. Damals prognostizierte Mason vier grundlegende Probleme des Informationszeitalters: Datenschutz, Zugänglichkeit, Eigentum und Genauigkeit.
Datenschutz bedeutet im Allgemeinen das Recht zu entscheiden, ob, wann, wie und an wen personenbezogene oder organisatorische Informationen weitergegeben werden. Zwei Hauptfaktoren bedrohen unsere Privatsphäre heute: das Wachstum der Informationstechnologie und der zunehmende Wert von Informationen bei der Entscheidungsfindung.
Barrierefreiheit beschreibt, wer die Erlaubnis hat, auf die Informationen zuzugreifen, wer die Rechte oder Schlüssel hat, um darauf zuzugreifen, welche Daten eine Person oder Organisation mit welchen Schutzmaßnahmen und unter welchen Bedingungen erwerben kann.
Eigentumsfragen beziehen sich auf das Eigentum und den Wert von Informationen, insbesondere geistigem Eigentum. Dabei geht es um Fragen, wem die Informationen gehören, welchen Gegenwert sie haben und wie der Zugang zu den Informationen oder Rechten verteilt werden sollte.
Genauigkeit ist wichtig, um Fehler oder Verzerrungen zu vermeiden. Aber wer ist für die Richtigkeit und Authentizität der Informationen verantwortlich? Wie können wir sicherstellen, dass Daten korrekt eingegeben und verarbeitet werden? Und wer übernimmt die Verantwortung für Fehler und entschädigt die Betroffenen?
Das AI4People-Modell ist das Ergebnis der Arbeit des AI4People Scientific Committee, einer Atomium-EISMD-Initiative, die den Grundstein für eine „gute KI-Gesellschaft“ legen soll. Der Ausschuss besteht aus 12 Experten und wird von Luciano Floridi geleitet.
Der Ausschuss erklärt: „KI ist nicht nur ein weiterer Dienst, der reguliert werden muss, wenn er ausgereift ist. Sie ist eine mächtige Kraft, die unser Leben, unsere Interaktionen und unsere Umwelt verändert.“ Die Studie unterteilt den Wirkungsbereich in 7 strategische Sektoren: Automobilindustrie, Banken und Finanzen, Energie, Gesundheitswesen, Versicherungen, Rechtsdienstleistungen, Medien und Technologie. Und gibt präzise Handlungsempfehlungen für jeden dieser einzelnen Sektoren. Die Experten um Floridi kommen auch zu dem Schluss, dass eine Regulierung der KI an sich nicht sinnvoll ist, sondern dass das jeweilige Umfeld, in dem sie eingesetzt werden soll, entscheidend für den Grad der Regulierung ist.
OpenAI, Adobe und TikTok sind nur einige der zehn Unternehmen, die sich zusammengeschlossen haben, um ethischer und verantwortungsvoller zu handeln, wenn es um den Einsatz generativer KI geht.
Diese als Partnership on AI (PAI) bezeichnete Zusammenarbeit wurde gegründet, um von Entwicklern und Anbietern digitaler Medien mehr Transparenz zu fordern. Ziel dieser Empfehlungen ist es, Menschen vor potenziellen Schäden zu schützen, die durch synthetische Medien verursacht werden können. Eine der wichtigsten Neuerungen ist das Versprechen der Unternehmen, Wege zu finden, um Benutzer zu warnen, wenn sie mit etwas interagieren, das von KI-Systemen generiert wird. Dies sollte ihnen helfen, synthetische Medien besser von echten zu unterscheiden und sich vor möglichen Manipulationen zu schützen.
Die Entwicklung neuer Technologien und Verfahren zur Bekämpfung der Verbreitung manipulativer synthetischer Medien ist ebenfalls ein wichtiger Teil der Initiative.
Während die US-Regierung weiterhin sehr zögerlich ist, dem Kongress eine KI-Regulierung vorzulegen, ist die Europäische Union (EU) politisch führend und steht kurz vor der Verabschiedung des KI-Gesetzes. Es regelt einige Aspekte der KI, darunter Gesichtserkennung, Schutz kritischer öffentlicher Infrastrukturen, Nichtdiskriminierung und verbindliche Risikobewertungen für Entwickler. Einige erste Ansätze lassen sich auch auf nationaler Ebene beobachten, beispielsweise in Deutschland. Dort fördert das Bundesministerium für Wirtschaft und Klima das Projekt „Foresight“, das ethische Richtlinien für KI erforscht und definiert.
Mit dem KI-Gesetz will die EU die Mitgliedsstaaten fit für diesen Wendepunkt machen; das Hauptaugenmerk liegt auf „Exzellenz in KI“, also Wettbewerbsfähigkeit und „vertrauenswürdiger KI“. Ein Balanceakt zwischen Regulierung und dem Nährboden für Innovation.
Denn genau dieser Balanceakt wird wichtig sein, wenn Europa im Vergleich zu den USA und China nicht abgehängt werden will. Datenschutzbestimmungen sind ein großes Innovationshemmnis auf dem KI-Markt, da es sich um ein datengesteuertes Unternehmen handelt. Nicht umsonst ist Google auf dem chinesischen Markt nicht verfügbar, forscht aber gleichzeitig dort. Ganz einfach, weil riesige Datenmengen für eine effektive Weiterentwicklung der KI benötigt werden.
Dynamische, an Anwendungsfeldern orientierte Regelungen sind ein sinnvoller Weg; KI sollte unter keinen Umständen als solche reguliert werden.
Während politische Akteure in erster Linie durch Trägheit auffallen, sind es private Unternehmen, NGOs und einzelne Philosophen, die daran arbeiten, die neue Situation philosophisch, rechtlich und wirtschaftlich zu bewerten und Leitplanken für einen sinnvollen Einsatz der KI-Technologie zu schaffen.
Der Urvater davon ist zweifellos das Modell PAPA, das 1986 von Richard Mason entworfen wurde. Damals prognostizierte Mason vier grundlegende Probleme des Informationszeitalters: Datenschutz, Zugänglichkeit, Eigentum und Genauigkeit.
Datenschutz bedeutet im Allgemeinen das Recht zu entscheiden, ob, wann, wie und an wen personenbezogene oder organisatorische Informationen weitergegeben werden. Zwei Hauptfaktoren bedrohen unsere Privatsphäre heute: das Wachstum der Informationstechnologie und der zunehmende Wert von Informationen bei der Entscheidungsfindung.
Barrierefreiheit beschreibt, wer die Erlaubnis hat, auf die Informationen zuzugreifen, wer die Rechte oder Schlüssel hat, um darauf zuzugreifen, welche Daten eine Person oder Organisation mit welchen Schutzmaßnahmen und unter welchen Bedingungen erwerben kann.
Eigentumsfragen beziehen sich auf das Eigentum und den Wert von Informationen, insbesondere geistigem Eigentum. Dabei geht es um Fragen, wem die Informationen gehören, welchen Gegenwert sie haben und wie der Zugang zu den Informationen oder Rechten verteilt werden sollte.
Genauigkeit ist wichtig, um Fehler oder Verzerrungen zu vermeiden. Aber wer ist für die Richtigkeit und Authentizität der Informationen verantwortlich? Wie können wir sicherstellen, dass Daten korrekt eingegeben und verarbeitet werden? Und wer übernimmt die Verantwortung für Fehler und entschädigt die Betroffenen?
Das AI4People-Modell ist das Ergebnis der Arbeit des AI4People Scientific Committee, einer Atomium-EISMD-Initiative, die den Grundstein für eine „gute KI-Gesellschaft“ legen soll. Der Ausschuss besteht aus 12 Experten und wird von Luciano Floridi geleitet.
Der Ausschuss erklärt: „KI ist nicht nur ein weiterer Dienst, der reguliert werden muss, wenn er ausgereift ist. Sie ist eine mächtige Kraft, die unser Leben, unsere Interaktionen und unsere Umwelt verändert.“ Die Studie unterteilt den Wirkungsbereich in 7 strategische Sektoren: Automobilindustrie, Banken und Finanzen, Energie, Gesundheitswesen, Versicherungen, Rechtsdienstleistungen, Medien und Technologie. Und gibt präzise Handlungsempfehlungen für jeden dieser einzelnen Sektoren. Die Experten um Floridi kommen auch zu dem Schluss, dass eine Regulierung der KI an sich nicht sinnvoll ist, sondern dass das jeweilige Umfeld, in dem sie eingesetzt werden soll, entscheidend für den Grad der Regulierung ist.
OpenAI, Adobe und TikTok sind nur einige der zehn Unternehmen, die sich zusammengeschlossen haben, um ethischer und verantwortungsvoller zu handeln, wenn es um den Einsatz generativer KI geht.
Diese als Partnership on AI (PAI) bezeichnete Zusammenarbeit wurde gegründet, um von Entwicklern und Anbietern digitaler Medien mehr Transparenz zu fordern. Ziel dieser Empfehlungen ist es, Menschen vor potenziellen Schäden zu schützen, die durch synthetische Medien verursacht werden können. Eine der wichtigsten Neuerungen ist das Versprechen der Unternehmen, Wege zu finden, um Benutzer zu warnen, wenn sie mit etwas interagieren, das von KI-Systemen generiert wird. Dies sollte ihnen helfen, synthetische Medien besser von echten zu unterscheiden und sich vor möglichen Manipulationen zu schützen.
Die Entwicklung neuer Technologien und Verfahren zur Bekämpfung der Verbreitung manipulativer synthetischer Medien ist ebenfalls ein wichtiger Teil der Initiative.
Obwohl sich die Forschung in einem absoluten Sprint befindet, herrscht auf Seiten der Gesetzgeber immer noch Uneinigkeit darüber, wie die Revolution im Leben angegangen werden soll, die als Folge der KI-Systeme begonnen hat. Mit grundlegenden ethischen Fragen, rechtlichen Herausforderungen und der Gefahr einer Innovationslähmung durch rücksichtslose Regulierung sind Forscher und Unternehmen konfrontiert.
Unsicherheit äußert sich auch in allgemeinen Ängsten innerhalb der Gesellschaft. Potenzielle Bedrohungen wurden inzwischen genau identifiziert, Verbesserungen, die uns in allen Lebensbereichen erwarten, sind greifbar, aber tragfähige Lösungen lassen noch lange auf sich warten. Es ist interessant zu beobachten, wie wir mit Hilfe eines funktionierenden Systems und umsichtiger Dogmatik den Wilden Westen der Innovation zähmen. Die Zeit der vagen Aussagen und des Wartens auf das Kommende sollte vorbei sein, es ist an der Zeit, anzupacken und zu gestalten — denn am Horizont erwarten uns unglaubliche Möglichkeiten.
Obwohl sich die Forschung in einem absoluten Sprint befindet, herrscht auf Seiten der Gesetzgeber immer noch Uneinigkeit darüber, wie die Revolution im Leben angegangen werden soll, die als Folge der KI-Systeme begonnen hat. Mit grundlegenden ethischen Fragen, rechtlichen Herausforderungen und der Gefahr einer Innovationslähmung durch rücksichtslose Regulierung sind Forscher und Unternehmen konfrontiert.
Unsicherheit äußert sich auch in allgemeinen Ängsten innerhalb der Gesellschaft. Potenzielle Bedrohungen wurden inzwischen genau identifiziert, Verbesserungen, die uns in allen Lebensbereichen erwarten, sind greifbar, aber tragfähige Lösungen lassen noch lange auf sich warten. Es ist interessant zu beobachten, wie wir mit Hilfe eines funktionierenden Systems und umsichtiger Dogmatik den Wilden Westen der Innovation zähmen. Die Zeit der vagen Aussagen und des Wartens auf das Kommende sollte vorbei sein, es ist an der Zeit, anzupacken und zu gestalten — denn am Horizont erwarten uns unglaubliche Möglichkeiten.
Obwohl sich die Forschung in einem absoluten Sprint befindet, herrscht auf Seiten der Gesetzgeber immer noch Uneinigkeit darüber, wie die Revolution im Leben angegangen werden soll, die als Folge der KI-Systeme begonnen hat. Mit grundlegenden ethischen Fragen, rechtlichen Herausforderungen und der Gefahr einer Innovationslähmung durch rücksichtslose Regulierung sind Forscher und Unternehmen konfrontiert.
Unsicherheit äußert sich auch in allgemeinen Ängsten innerhalb der Gesellschaft. Potenzielle Bedrohungen wurden inzwischen genau identifiziert, Verbesserungen, die uns in allen Lebensbereichen erwarten, sind greifbar, aber tragfähige Lösungen lassen noch lange auf sich warten. Es ist interessant zu beobachten, wie wir mit Hilfe eines funktionierenden Systems und umsichtiger Dogmatik den Wilden Westen der Innovation zähmen. Die Zeit der vagen Aussagen und des Wartens auf das Kommende sollte vorbei sein, es ist an der Zeit, anzupacken und zu gestalten — denn am Horizont erwarten uns unglaubliche Möglichkeiten.
Obwohl sich die Forschung in einem absoluten Sprint befindet, herrscht auf Seiten der Gesetzgeber immer noch Uneinigkeit darüber, wie die Revolution im Leben angegangen werden soll, die als Folge der KI-Systeme begonnen hat. Mit grundlegenden ethischen Fragen, rechtlichen Herausforderungen und der Gefahr einer Innovationslähmung durch rücksichtslose Regulierung sind Forscher und Unternehmen konfrontiert.
Unsicherheit äußert sich auch in allgemeinen Ängsten innerhalb der Gesellschaft. Potenzielle Bedrohungen wurden inzwischen genau identifiziert, Verbesserungen, die uns in allen Lebensbereichen erwarten, sind greifbar, aber tragfähige Lösungen lassen noch lange auf sich warten. Es ist interessant zu beobachten, wie wir mit Hilfe eines funktionierenden Systems und umsichtiger Dogmatik den Wilden Westen der Innovation zähmen. Die Zeit der vagen Aussagen und des Wartens auf das Kommende sollte vorbei sein, es ist an der Zeit, anzupacken und zu gestalten — denn am Horizont erwarten uns unglaubliche Möglichkeiten.
Obwohl sich die Forschung in einem absoluten Sprint befindet, herrscht auf Seiten der Gesetzgeber immer noch Uneinigkeit darüber, wie die Revolution im Leben angegangen werden soll, die als Folge der KI-Systeme begonnen hat. Mit grundlegenden ethischen Fragen, rechtlichen Herausforderungen und der Gefahr einer Innovationslähmung durch rücksichtslose Regulierung sind Forscher und Unternehmen konfrontiert.
Unsicherheit äußert sich auch in allgemeinen Ängsten innerhalb der Gesellschaft. Potenzielle Bedrohungen wurden inzwischen genau identifiziert, Verbesserungen, die uns in allen Lebensbereichen erwarten, sind greifbar, aber tragfähige Lösungen lassen noch lange auf sich warten. Es ist interessant zu beobachten, wie wir mit Hilfe eines funktionierenden Systems und umsichtiger Dogmatik den Wilden Westen der Innovation zähmen. Die Zeit der vagen Aussagen und des Wartens auf das Kommende sollte vorbei sein, es ist an der Zeit, anzupacken und zu gestalten — denn am Horizont erwarten uns unglaubliche Möglichkeiten.