Select Page

Gehirnfutter für Pioniergeister: Wie kann ein ethisch verantwortungsvoller Einsatz neuer Technologien aussehen? Das ist die Fragestellung mit der wir uns in Raum #879 des Deep Talk Clubs unter dem Dachthema “Pioniergeist mit Hirn” befassen. Höre selbst, welche Beispiele aufgegriffen wurden und welche Perspektiven im Dialog entstanden sind…

Transkription: 🇩🇪🇨🇭🇦🇹 #879 Ethik & Technologien | Von Dr. Yasemin Yazan

00:00:00.000 –> 00:00:04.000

Einen wunderschönen guten Morgen wünsche ich.

00:00:04.000 –> 00:00:08.000

Ja, wir sprechen heute über Ethik und Technologien.

00:00:08.000 –> 00:00:12.000

Und wir haben ja in den vergangenen Tagen, Wochen

00:00:12.000 –> 00:00:16.000

verschiedene Bereiche unter dem Dach Pioniergeist mit Hirn

00:00:16.000 –> 00:00:20.000

aufgemacht und uns verschiedene Technologien auch angesehen.

00:00:20.000 –> 00:00:24.000

Und heute möchte ich gerne mal

00:00:24.000 –> 00:00:28.000

mit euch diesen ethischen Aspekt aufgreifen im Zusammenhang mit den

00:00:28.000 –> 00:00:33.360

Technologien, wie kann ein ethisch verantwortungsvoller Einsatz neuer

00:00:33.360 –> 00:00:37.920

Technologien aussehen? Darum soll es heute gemeinsam gehen. Das heißt, wir

00:00:37.920 –> 00:00:42.520

haben ja festgestellt, ob das jetzt Technologien sind oder andere Themen.

00:00:42.520 –> 00:00:47.840

Immer wieder kommen wir darauf zurück, dass wir feststellen, im Grunde genommen

00:00:47.840 –> 00:00:53.240

ist es in diesem Fall jetzt nicht die Technologie, die per se gut oder schlecht

00:00:53.240 –> 00:00:57.880

ist, sondern hat ja auch sehr viel damit zu tun, wie das eben von Menschen

00:00:57.880 –> 00:01:04.000

auch genutzt oder eingesetzt wird. Das heißt, da gibt es natürlich auch Möglichkeiten des

00:01:04.000 –> 00:01:10.600

Missbrauchs etc. Und dementsprechend macht es auch mal Sinn, gemeinsam darüber nachzudenken

00:01:10.600 –> 00:01:16.600

oder auch in den Austausch zu kommen, um mal zu überlegen, wie ließe sich denn das eine oder

00:01:16.600 –> 00:01:25.760

andere eben auch vielleicht, weiß ich nicht, Regulierungen, waren ja zum einen so Aspekte,

00:01:25.760 –> 00:01:31.600

die immer wieder auch aufgekommen sind. Aber möglicherweise gibt es eben nicht nur das

00:01:31.600 –> 00:01:35.880

Regulieren von außen, von einer zentralen Stelle, sondern vielleicht gibt es auch andere Alternativen.

00:01:35.880 –> 00:01:42.760

Also hier mal zu gucken, welche Möglichkeiten gibt es denn hier im Kontext mit der ethischen

00:01:42.760 –> 00:01:51.320

Betrachtung, um das eine oder andere in die positive Richtung zu lenken, in Anführungsstrichen

00:01:51.320 –> 00:01:56.160

beziehungsweise sicherzustellen, kann man es überhaupt sicherstellen, dass es eben

00:01:56.160 –> 00:02:00.600

keinen Missbrauch gibt oder weniger Missbrauch gibt, um das vielleicht auch

00:02:00.600 –> 00:02:04.200

noch ein bisschen einzugrenzen und nicht ganz extrem zu formulieren.

00:02:04.200 –> 00:02:07.680

Genau und in diesem Sinne seid ihr ganz ganz herzlich eingeladen, heute auch

00:02:07.680 –> 00:02:12.280

wieder mit dazu zu kommen und ja lasst uns einfach mal erste Impulse

00:02:12.280 –> 00:02:16.640

zusammenführen, aufgreifen. Vielleicht gibt es ja auch irgendwelche Beispiele, an

00:02:16.640 –> 00:02:19.840

denen man eben auch hier Vergleiche aufmachen kann und sagen kann, hier

00:02:19.840 –> 00:02:24.860

können diese sich ja das eine oder andere vielleicht auch übertragen, also im Sinne von

00:02:24.860 –> 00:02:29.920

transferieren, adaptieren oder ähnliches, also dass wir einfach mal verschiedene Gedanken und

00:02:29.920 –> 00:02:36.040

Impulse aufgreifen. Und denkt bitte daran, auch heute, der Raum wird über die gesamte Zeit

00:02:36.040 –> 00:02:41.240

aufgezeichnet. Wer mit dazu kommt, ist automatisch damit einverstanden, dass das später auch

00:02:41.240 –> 00:02:46.520

veröffentlicht wird. Und wir haben drei kleine Raumregeln. Einmal ein Profilfoto, auf dem ihr

00:02:46.520 –> 00:02:50.040

klar zu erkennen seit vor und nach Namen und mindestens Einsatz in der Bio.

00:02:50.040 –> 00:02:53.360

Wer das aus irgendwelchen Gründen nicht möchte, ist herzlich eingeladen, einfach

00:02:53.360 –> 00:02:58.680

den Chat zu nutzen, hier verschiedene Gedanken, Fragen oder Impulse mit reinzugeben,

00:02:58.680 –> 00:03:02.800

sodass wir es dann im Laufe des Raumes dann auch mit aufgreifen können.

00:03:02.800 –> 00:03:05.680

Ja, und damit möchte ich dann gerne auch

00:03:05.680 –> 00:03:08.200

Marc an meiner Seite begrüßen.

00:03:08.200 –> 00:03:09.880

Einen wunderschönen guten Morgen, lieber Marc.

00:03:09.880 –> 00:03:12.400

Was sagst du denn zu dem Thema?

00:03:12.400 –> 00:03:15.640

Guten Morgen in die Runde und einen guten Wochenstart für alle.

00:03:16.120 –> 00:03:20.440

Ich knüpfe mal an das Autorenvorstück am Sonntag, Storytelling,

00:03:20.440 –> 00:03:22.480

und ich lade euch auf ein Gedankenspiel an.

00:03:22.480 –> 00:03:26.040

Mein Thema ist Gentechnologie, und der Marc ist jetzt Politiker.

00:03:26.040 –> 00:03:28.280

Und ich weiß, dass alle neuen Technologien,

00:03:28.280 –> 00:03:31.840

eben auch die Gentechnologie, bei den einen Menschen Ängste auslösen,

00:03:31.840 –> 00:03:34.240

und bei den anderen Menschen, naja, Hoffnung.

00:03:34.240 –> 00:03:36.320

Und wie du schon gesagt hast, positive Aspekte.

00:03:36.320 –> 00:03:40.520

Und ich möchte das jetzt mal als negatives Moment nutzen,

00:03:40.520 –> 00:03:43.520

indem ich sage, oh, gentechnisch, ich weiß, viele Menschen haben Angst.

00:03:43.680 –> 00:03:46.840

Und ich würde meine Wahl jetzt, wenn ich es negativ nutzen würde,

00:03:46.840 –> 00:03:51.480

so nutzen, dass ich sagen würde, in China, Leute, da nutzen die Gentechnik ein für Babys.

00:03:51.480 –> 00:03:53.960

Um Gottes Willen, wird ja der eine oder andere sagen.

00:03:53.960 –> 00:03:56.120

Ja. Und wisst ihr, was man damit machen kann?

00:03:56.120 –> 00:03:59.520

Das heißt, Eltern bestimmen in Zukunft, ob die Augen vom Baby blau werden,

00:03:59.520 –> 00:04:01.560

ob es blonde Haare hat und und und.

00:04:01.560 –> 00:04:03.560

Und wenn ihr mich wählt, bin ich absolut dagegen.

00:04:03.560 –> 00:04:05.160

Nee, das kann ich nachvollziehen.

00:04:05.160 –> 00:04:07.120

Sind wir auch. Finde ich gut, dass du dich da einsetzt.

00:04:07.120 –> 00:04:10.600

Und das Spannende ist dann, ich habe die Fakten total verdreht.

00:04:10.600 –> 00:04:12.560

In China setzt man Gentechnik ein.

00:04:12.600 –> 00:04:15.200

Ja, was da gemacht worden ist vor drei Jahren.

00:04:15.200 –> 00:04:18.800

Man hat mit der CRISPR-Technologie drei Mädchen…

00:04:18.800 –> 00:04:22.520

Also man hat das gentechnisch behandelt, die Embryos.

00:04:22.520 –> 00:04:25.440

Und der Hintergrund dessen war aber nicht,

00:04:25.440 –> 00:04:27.840

dass die jetzt blaue Haare haben oder blaue Augen.

00:04:27.840 –> 00:04:30.680

Sondern der Hintergrund war durch eine Keimbehandlung

00:04:30.680 –> 00:04:33.320

ein Versuch zu starten, ob die drei Mädchen…

00:04:33.320 –> 00:04:36.360

In Zukunft, AIDS ist ja immer noch eine Krankheit, die da ist.

00:04:36.360 –> 00:04:39.240

Man stirbt zwar nicht sofort, man kann damit auch sehr lange leben.

00:04:39.400 –> 00:04:41.320

Trotzdem ist es eine gefährliche Krankheit.

00:04:41.320 –> 00:04:45.160

Und der Hintergrund war einfach da, dass die Wissenschaftler gesagt haben

00:04:45.160 –> 00:04:47.080

und die Eltern sich dann auch entschieden haben,

00:04:47.080 –> 00:04:50.800

wenn ich mein Kind schützen kann in Zukunft vor einer tödlichen Krankheit,

00:04:50.800 –> 00:04:53.400

das heißt, keiner, kein Elternteil möchte,

00:04:53.400 –> 00:04:55.800

dass ein Kind stirbt und dass dem ein Leid geschieht.

00:04:55.800 –> 00:04:57.920

Und wenn ich die Geschichte jetzt so verkaufe und sage,

00:04:57.920 –> 00:04:59.720

hey, mit dieser Gentechnologie,

00:04:59.720 –> 00:05:02.240

da kannst du sicherstellen, dass dein Kind vielleicht mal

00:05:02.240 –> 00:05:07.000

nicht an dem Krebs stirbt und vielleicht nicht an HIV erkrankt wird,

00:05:07.000 –> 00:05:08.680

dann wird man wahrscheinlich fiefi,

00:05:08.840 –> 00:05:12.240

dann hat man eine ganz, ganz andere Reaktion auf diese Technologie,

00:05:12.240 –> 00:05:15.000

je nachdem, welche Fakten man weglässt und je nachdem,

00:05:15.000 –> 00:05:16.600

welche Story man dazu erzählt.

00:05:16.600 –> 00:05:18.080

Das wäre jetzt erstmal mal ein Einstieg.

00:05:18.080 –> 00:05:22.120

Ja, wunderbar. Vielen, vielen lieben Dank.

00:05:22.120 –> 00:05:26.040

Das heißt hier tatsächlich das Storytelling entsprechend zu nutzen,

00:05:26.040 –> 00:05:31.920

um zu gucken, ob da eben Ängste geschürt werden,

00:05:31.920 –> 00:05:35.200

in Anführungsstrichen, oder auch Zuversicht geschaffen wird.

00:05:35.200 –> 00:05:37.160

Natürlich könnte es dann trotzdem sein,

00:05:37.160 –> 00:05:41.720

dass es eben Menschen gibt, die das ethisch zum Beispiel bedenklich finden,

00:05:41.720 –> 00:05:45.200

dadurch, dass es hier eben um Gentechnologie geht und so weiter. Das

00:05:45.200 –> 00:05:49.280

heißt, man würde jetzt bei diesem konkreten Beispiel dadurch das nicht

00:05:49.280 –> 00:05:53.040

komplett aushebeln, sondern hier würden auch andere Diskussionen noch mal in

00:05:53.040 –> 00:05:57.080

diesem Zusammenhang entstehen, mit Sicherheit. Und dennoch ist das aber ein

00:05:57.080 –> 00:06:00.680

schönes Beispiel, um eben aufzuzeigen, dass es sehr unterschiedlich auch

00:06:00.680 –> 00:06:05.360

gelenkt werden kann an der Stelle. Die Frage ist allerdings in diesem

00:06:05.360 –> 00:06:11.520

Zusammenhang mit dem Storytelling. Wir hatten ja auch Räume gemacht, in denen wir festgestellt

00:06:11.520 –> 00:06:19.240

haben, dass zum Beispiel Medien ja eben gerade deswegen aber auch bestimmte zum Beispiel

00:06:19.240 –> 00:06:27.080

angstschürende Sachen aufgreifen oder ja eben wegen der Klicks, um die es geht, eben

00:06:27.080 –> 00:06:33.160

entsprechende Überschriften auswählen und so weiter, weil der Mensch ja schon dazu auch

00:06:33.160 –> 00:06:40.160

neigt, eben entsprechend darauf zu reagieren. Das heißt, in dem Moment, wo wir die Möglichkeit

00:06:40.160 –> 00:06:43.960

haben sozusagen mehr Klicks zu generieren oder ähnliches, und auch das hat eben eine

00:06:43.960 –> 00:06:49.760

Relevanz jetzt zum Beispiel im Zusammenhang von Medien. Also reicht das denn aus, dass

00:06:49.760 –> 00:06:56.880

man hier quasi diesen Ansatz hat, ich nutze beispielsweise Storytelling positiv, um Zuversicht

00:06:56.880 –> 00:07:01.040

und Neugierig zu machen und ähnliches, weil das würde ja auch bedeuten, dass an der einen

00:07:01.040 –> 00:07:09.040

oder anderen Stelle eben ja ein völlig, völlig anderer Ansatz plötzlich gewählt werden würde.

00:07:09.040 –> 00:07:12.960

Wir hatten ja auch mal darüber gesprochen, dass es sowas wie positive Nachrichten zum

00:07:12.960 –> 00:07:16.720

Beispiel auf Social Media Kanälen oder so gibt, die durch die Decke auch geschossen

00:07:16.720 –> 00:07:21.120

sind, weil Menschen eben es leid waren, in Anführungsstrichen immer nur oder fast ausschließlich

00:07:21.120 –> 00:07:25.800

negativ Nachrichten in den Medien zu lesen und haben hier eine eigene Initiative, aus

00:07:25.800 –> 00:07:28.000

eigener Initiative eben etwas gegründet.

00:07:28.000 –> 00:07:33.560

Das funktioniert zwar auch ganz gut, aber das ist eben nur ein bestimmter Teil von Menschen,

00:07:33.560 –> 00:07:38.000

die das für sich nutzen oder die hier das cool finden und dem auch folgen.

00:07:38.000 –> 00:07:40.080

Andere haben das vielleicht gar nicht mitbekommen.

00:07:40.080 –> 00:07:45.960

Aber Storytelling ist ja nichts, gerade wenn wir in Richtung Medien gucken, wie ließe

00:07:45.960 –> 00:07:50.160

sich denn sowas eben auch beeinflussen, in Anführungsstrichen, dass hier nicht nach

00:07:50.160 –> 00:07:56.040

Klicks oder sonstigem agiert wird, um eben hier auch die eigene Finanzierung, sage ich

00:07:56.040 –> 00:08:00.720

jetzt mal sicherzustellen, die Reichweite sicherzustellen und so weiter und so fort,

00:08:00.720 –> 00:08:04.400

sondern eben auch hier in eine bestimmte Richtung auch zu lenken.

00:08:04.400 –> 00:08:06.960

Also das fände ich auch nochmal so eine ganz spannende Frage.

00:08:06.960 –> 00:08:10.440

Das heißt, mit Storytelling kann man mit Sicherheit einiges erreichen.

00:08:10.440 –> 00:08:16.360

Einen Gleichklang hier hinzubekommen, dass es eher in die positive Richtung auch berichtet

00:08:16.360 –> 00:08:18.200

wird, gerade in den Medien.

00:08:18.200 –> 00:08:24.320

Da stellt sich die Frage, geht das überhaupt oder ist das einfach nur eine utopisch hoffnungsvoll

00:08:24.320 –> 00:08:32.480

vorgestellter Gedanke. Das fände ich mal ganz spannend zu betrachten. Und wir hatten ja gestern

00:08:32.480 –> 00:08:37.400

auch schon darüber gesprochen, dass eben Storytelling auch gerade so, ja auch im politischen

00:08:37.400 –> 00:08:42.920

Kontext oder so anders eben auch eingesetzt werden könnte, um nicht irgendwie nur darüber zu

00:08:42.920 –> 00:08:49.120

diskutieren, was die Menschheit irgendwie machen müsste oder sollte oder wie auch immer, sondern

00:08:49.120 –> 00:08:56.120

eben hier auch Lust zu schüren sozusagen oder Neugier zu schüren, mit Zuversicht auf

00:08:56.120 –> 00:08:57.880

gewisse Dinge zu schauen.

00:08:57.880 –> 00:09:02.400

Wobei natürlich auch hier trotzdem nochmal die Frage gestellt werden müsste, ist es

00:09:02.400 –> 00:09:06.480

bei bestimmten Sachen überhaupt die Aufgabe der Politik, sich in Anführungsstrichen hier

00:09:06.480 –> 00:09:07.480

einzumischen.

00:09:07.480 –> 00:09:11.240

Marc, magst du nochmal andocken an der Stelle bei meinen Gedanken?

00:09:11.240 –> 00:09:12.240

Ja, zwei Sachen.

00:09:12.240 –> 00:09:14.760

Das haben wir ja gerade aktuell mit der Politik.

00:09:14.760 –> 00:09:15.760

Das ist ein heikles Thema.

00:09:15.760 –> 00:09:19.120

Ich finde ja, die Politik hat die Aufgabe und ich komme immer wieder darauf zurück,

00:09:19.120 –> 00:09:24.000

Bildung und Aufklärung. Und nur am Rande das Heizthema. Ich kann euch jetzt alle im Raum

00:09:24.000 –> 00:09:29.440

fragen, wer von euch ist für Umweltschutz? Dann gehen alle Finger hoch. Ich bin bestimmt der

00:09:29.440 –> 00:09:32.920

Meinung, dass 99 Prozent der Finger hochgehen, wenn man sagt, wer ist für ein gutes Klima?

00:09:32.920 –> 00:09:37.200

Wenn ich dann aber die Frage umdrehe und sage, ich bestimme in Zukunft, mit was du heizt,

00:09:37.200 –> 00:09:40.480

weil ich das vorgebe, weil du keine Ahnung hast und ich einfach die Ahnung habe,

00:09:40.480 –> 00:09:45.720

dann sprechen wir über das gleiche Thema. Ich habe aber nicht aufgeklärt den Hintergrund,

00:09:45.720 –> 00:09:50.880

und und und und und das kann ich quasi mit jedem Thema so machen. Und Ethik und Technik, da habe

00:09:50.880 –> 00:09:54.240

ich auch noch ein Beispiel mitgebracht. Wir haben ja alle, das Automobil gibt es ja jetzt schon

00:09:54.240 –> 00:09:59.440

längeren Zeitraum und wenn ich mich erinnere, das allererste Auto, was ich gehabt habe, mit dem bin

00:09:59.440 –> 00:10:03.640

ich gefahren und ich bin damit ziemlich gut durch die Nacht gekommen. Das heißt, das Licht ist heute

00:10:03.640 –> 00:10:07.480

besser, aber es hat mir gereicht durch die Nacht zu kommen. Damals hatte man noch Lampen und Lichter.

00:10:07.480 –> 00:10:12.120

Das bedeutet, wenn eine Lampe kaputt gegangen ist, bin ich zu einem Autohändler gegangen und

00:10:12.120 –> 00:10:16.140

sagt, meine birne ist kaputt, dann sagte er vier mark oder vier, fünf euro, dann hatte ich wieder

00:10:16.140 –> 00:10:20.400

Licht. Heute spricht man von Leuchteinheiten. Diese Leuchteinheiten haben natürlich auch,

00:10:20.400 –> 00:10:24.240

technisch haben die sich weiterentwickelt, es gibt Laserlicht, ganz ganz tolle Sachen,

00:10:24.240 –> 00:10:28.520

hat natürlich auch den Nachteil, dass man nichts mehr auswechseln kann. Und ich werde das nie

00:10:28.520 –> 00:10:33.320

vergessen, wie ich mal auf einer Messe war und mit jemandem im Auto saß, der in der Automobilindustrie

00:10:33.320 –> 00:10:37.200

gearbeitet hat und mir gesagt hat, naja, diese Leuchteinheiten sind natürlich auch, das ist

00:10:37.200 –> 00:10:41.760

ein technischer Fortschritt, aber gleichzeitig können wir damit auch mehr Geld verdienen.

00:10:41.760 –> 00:10:47.640

Denn wer schon mal eine Leuchteinheit fürs Auto gekauft hat, weiß, dass er mit 5, 6 Euro nicht mehr dabei ist,

00:10:47.640 –> 00:10:50.760

sondern mit 6 bis 7 oder 800 Euro, je nach Modell.

00:10:50.760 –> 00:10:52.760

Es ist ein technischer Fortschritt, ja.

00:10:52.760 –> 00:10:57.240

Diese technische Entwicklung hat aber auch dazu geführt, mehr Geld zu generieren,

00:10:57.240 –> 00:10:59.720

weil ich die Geräte nicht mehr reparieren kann.

00:10:59.720 –> 00:11:04.640

Und im Zusammenhang mit Ethik und Technik, wir entwickeln uns technisch alle weiter,

00:11:04.640 –> 00:11:06.640

also mit den Smartphones, mit den Fernsehgeräten.

00:11:06.640 –> 00:11:10.960

Gleichzeitig hat aber die Industrie ein großes Interesse, dass Geräte nicht repariert werden,

00:11:10.960 –> 00:11:14.160

weil ein neues Gerät mehr Geld bringt als eine Reparatur.

00:11:14.160 –> 00:11:20.040

Ja, vielen, vielen lieben Dank.

00:11:20.040 –> 00:11:22.760

Und hier stellt sich ja auch nochmal,

00:11:22.760 –> 00:11:25.360

weil du jetzt auch Bildung und so was mit aufgegriffen hast,

00:11:25.360 –> 00:11:28.800

auch die Fragestellung, da ist direkt bei mir der nächste Impuls aufgekommen,

00:11:28.800 –> 00:11:32.880

ja, auf verschiedenen Ebenen eben auch zu gucken, weil Storytelling

00:11:32.880 –> 00:11:36.240

ist ja dann zum Beispiel eine Möglichkeit

00:11:36.240 –> 00:11:38.320

auf der auf der einen Seite.

00:11:38.320 –> 00:11:42.280

Es gibt verschiedene Möglichkeiten, auch in Bezug auf Bildung, wenn wir diesen Bildungsbegriff

00:11:42.280 –> 00:11:43.800

nochmal aufgreifen.

00:11:43.800 –> 00:11:49.200

Da geht es ja um das Thema Selbstbestimmung und Selbstorganisation, Selbstwirksamkeit.

00:11:49.200 –> 00:11:56.160

Das heißt hier auch in eine gewisse Form der Begleitung reinzugehen, sprich ja nicht

00:11:56.160 –> 00:12:00.160

erst am Ende in Anführungsstrichen irgendwo anzudocken, sondern eben auch, wenn wir zum

00:12:00.160 –> 00:12:03.840

Beispiel sehen, dass gerade jetzt Entwicklungen da sind und die sind ja nicht erst seit gestern

00:12:03.840 –> 00:12:04.840

da.

00:12:04.840 –> 00:12:07.240

Also gerade wenn wir so etwas wie Internet oder so etwas sehen, da ließ sich ja auch

00:12:07.240 –> 00:12:12.040

schon in der Vergangenheit sehr, sehr viel abzeichnen, was da alles sich entwickelt,

00:12:12.040 –> 00:12:16.520

was da alles in Anführungsstrichen kommt. Und über die Zeit hinweg betrachtet, kommen

00:12:16.520 –> 00:12:22.120

ja immer weitere Aspekte auch hinzu. Das heißt, hier wäre es ja zum Beispiel auch logisch

00:12:22.120 –> 00:12:28.840

und notwendig, gerade wenn wir auch so Diskussionen jetzt gerade, ich meine, bestimmte Bereiche,

00:12:28.840 –> 00:12:33.540

da hat man vielleicht nicht so den Einblick, da kennt sich vielleicht nicht jeder aus,

00:12:33.540 –> 00:12:38.540

in Anführungsstrichen. Allerdings so Sachen wie jetzt zum Beispiel KI und die

00:12:38.540 –> 00:12:43.180

Chat GPT und sowas, das ist ja schon etwas, was wirklich in aller Munde auch

00:12:43.180 –> 00:12:46.980

angekommen ist. Das heißt ja auch in Schulen etc. oder von Lehrern auch

00:12:46.980 –> 00:12:51.380

diskutiert wird. Dementsprechend hier eben auch Ethik und Technologie auf die

00:12:51.380 –> 00:12:55.820

Art und Weise zu denken, eben hier relativ früh an der Schule zum Beispiel

00:12:55.820 –> 00:13:01.300

auch oder Kita-Schule und überall weiterführend eben das Thema auch

00:13:01.300 –> 00:13:05.260

aufzugreifen und hier in eine Art

00:13:05.260 –> 00:13:07.100

Begleitung zu gehen und diese

00:13:07.100 –> 00:13:09.340

Kombination Ethik und

00:13:09.340 –> 00:13:12.900

Technologien eben aufzugreifen und hier

00:13:12.900 –> 00:13:15.220

darüber auch auf die auf eine

00:13:15.220 –> 00:13:17.500

entsprechende Art und Weise sozusagen

00:13:17.500 –> 00:13:21.420

sich an dieser Themen auch anzunähern,

00:13:21.420 –> 00:13:23.380

um ein Bewusstsein für die

00:13:23.380 –> 00:13:26.540

“ethische Nutzung” auch

00:13:26.540 –> 00:13:29.620

aufzugreifen. Damit mag ich

00:13:26.540 –> 00:13:31.980

gerne Jürgen zunächst erst mal mit in die Runde aufnehmen und dann können wir

00:13:31.980 –> 00:13:36.340

gerne auch noch mal Querbezüge herstellen. Guten Morgen lieber Jürgen.

00:13:36.340 –> 00:13:43.260

Guten Morgen liebe Yasemin, guten Morgen lieber Marc und guten Morgen alle im Raum.

00:13:43.260 –> 00:13:52.140

Ich danke fürs Aufgreifen, liebe Yasemin, und fand einen Teilbereich. Grundsätzlich

00:13:52.140 –> 00:13:57.700

halte ich alle kommentare von Marc immer sehr aus dem leben gegriffen und

00:13:57.700 –> 00:14:04.180

deswegen zielführend für unsere Themen, aber insbesondere dieses Beispiel mit der

00:14:04.180 –> 00:14:13.140

aktuellen Diskussion um das neue Wärmegesetz oder wie heißt es da,

00:14:13.140 –> 00:14:18.420

da diese besondere Erd-…

00:14:18.420 –> 00:14:23.420

Ach, mir fehlt jetzt der konkrete Begriff.

00:14:23.420 –> 00:14:29.900

Ich würde das ganz gerne mal hernehmen, lieber Barack, dein Beispiel, das du ja gesagt hast

00:14:29.900 –> 00:14:39.300

und es verbunden hast mit dem Storytelling, dass wir bei den Begrifflichkeiten Ethik und

00:14:39.300 –> 00:14:47.220

Technologie, wenn wir mal von Ethik ausgehen, da ist eine der gängigen Definitionen ja,

00:14:47.220 –> 00:14:53.460

dass es das theoretische Konstrukt dessen ist, was als richtig und falsch,

00:14:53.460 –> 00:15:03.340

beziehungsweise als gut oder böse bezeichnet wird. Bezogen auf die Verknüpfung mit Technologie

00:15:03.340 –> 00:15:10.220

heißt das, die Ethik, wer auch immer sie definiert, komme ich auch kurz noch drauf,

00:15:10.220 –> 00:15:22.940

definiert, welche Technologien gut und böse sind. Und in Bezug auf wer es definiert, sehe ich zwei

00:15:22.940 –> 00:15:31.660

Teilbereiche, ganz wesentlich in der Unterscheidung, auch von der Konsequenz. Einmal, was als ethisch

00:15:31.660 –> 00:15:41.200

von einer zum Beispiel politischen Instanz vom Gesetzgeber als ethisches Konstrukt und Vorgabe

00:15:41.200 –> 00:15:47.120

gesehen wird und auf der anderen Seite, was durchaus dem nicht entsprechen muss, was jeder

00:15:47.120 –> 00:15:57.280

Einzelne von uns für sich als seine Individualethik definiert hat. Die Ergebnisgrößen, die Umsetzungsformen

00:15:57.280 –> 00:16:08.000

aus Ethik. Das ist nach meinem Verständnis die Moral. Also das, was wir dann im täglichen Umgang

00:16:08.000 –> 00:16:16.640

miteinander als gut und böse, richtig und falsch empfinden und was wir entsprechend sanktionieren

00:16:16.640 –> 00:16:23.360

durch Beipflichten oder durch entsprechende Gegenreaktionen.

00:16:23.360 –> 00:16:29.680

Und auf der, das mag ich noch beitragen, dann bin ich auch wieder ruhig,

00:16:29.680 –> 00:16:35.200

auf der Ebene der institutionalisierten Verknüpfung von Ethik und Technologie,

00:16:35.200 –> 00:16:43.160

da gibt es eine Instanz in der Bundesrepublik, die sich damit vehement beschäftigt,

00:16:43.160 –> 00:16:46.160

Und zwar ist das der Ethikrat.

00:16:46.160 –> 00:17:01.160

Und der Ethikrat hat vor nicht an zu langer Zeit eine sehr interessante Publikation über die Verknüpfung von Ethik mit der künstlichen Intelligenz veröffentlicht.

00:17:01.160 –> 00:17:05.160

Kann ich jedem nur empfehlen zum Lesen.

00:17:05.160 –> 00:17:10.020

deswegen, weil sehr viel Wert auf die

00:17:10.020 –> 00:17:12.040

Erbgrenzung und die

00:17:12.040 –> 00:17:15.360

Eindeutigkeit der Begrifflichkeiten

00:17:15.360 –> 00:17:19.960

gelegt wird. Vielen Dank fürs Zuhören und

00:17:19.960 –> 00:17:21.720

das soll mal mein Input sein.

00:17:21.720 –> 00:17:24.520

Ja wunderbar, vielen, vielen lieben Dank.

00:17:24.520 –> 00:17:29.160

Und ja, Marc, magst du hier direkt mit

00:17:29.160 –> 00:17:30.680

anschließen an der Stelle? Ja, lieber Jürgen,

00:17:30.680 –> 00:17:32.560

vielen, vielen Dank für deinen Beitrag.

00:17:32.560 –> 00:17:34.600

Genau das ist das Interessante, dass

00:17:32.560 –> 00:17:37.160

dass du dich dann auch immer für mich auf die Wörter spezialisierst.

00:17:37.160 –> 00:17:39.920

Und das Thema ist halt so komplex.

00:17:39.920 –> 00:17:43.040

Und ich komme noch mal zurück auf das Thema Bildung.

00:17:43.040 –> 00:17:46.800

Und denke, dass wir viele Dinge noch gar nicht überschauen können.

00:17:46.800 –> 00:17:49.400

Ich hätte gleich noch das Thema Robotik angesprochen.

00:17:49.400 –> 00:17:51.320

Und zwar gibt es ja dann auch Untersuchungen.

00:17:51.320 –> 00:17:53.480

Wie reagieren Menschen auf Roboter?

00:17:53.480 –> 00:17:56.880

Wie baut man eine Beziehung auf zwischen Mensch und Roboter?

00:17:56.880 –> 00:17:58.600

Will man das überhaupt aufbauen?

00:17:58.600 –> 00:18:00.360

Was passiert, wenn es Beziehungen gibt?

00:18:00.520 –> 00:18:04.120

Es gibt durchaus auch Untersuchungen oder gute Sachen.

00:18:04.120 –> 00:18:07.120

Man kann das gut betrachten. Die Einsamkeit wird zunehmen.

00:18:07.120 –> 00:18:09.000

Wir sind überalternde Bevölkerung.

00:18:09.000 –> 00:18:11.280

Das heißt, viele von uns, das wünsche ich niemandem,

00:18:11.280 –> 00:18:14.240

werden im Alter vielleicht alleine sein, weil der Partner stirbt.

00:18:14.240 –> 00:18:16.880

In anderen Kulturen ist es genauso.

00:18:16.880 –> 00:18:19.240

Und dann gibt es mittlerweile Roboterhunde.

00:18:19.240 –> 00:18:21.120

Und da gibt es Untersuchungen,

00:18:21.120 –> 00:18:23.880

dass der Mensch eine Beziehung zu diesem Roboter herstellen kann

00:18:23.880 –> 00:18:26.080

und dann irgendwann mal auch nicht mehr unterscheidet,

00:18:26.080 –> 00:18:28.840

ob das eine Maschine ist oder ein Mensch.

00:18:29.000 –> 00:18:32.080

Und es gibt Ideen, wie man die Computer so programmieren kann.

00:18:32.080 –> 00:18:34.000

Wir wissen, dass wir alle gefühlsorientiert sind.

00:18:34.000 –> 00:18:36.200

Und es gibt Mechanismen, warum wir uns verlieben.

00:18:36.200 –> 00:18:38.440

Warum wir eine Beziehung zu jemandem herstellen,

00:18:38.440 –> 00:18:41.880

auch das kann man in der Maschine ganz genau so programmieren.

00:18:41.880 –> 00:18:45.640

Aber dann jetzt in die Zukunft zu gucken, was das für Konsequenzen hat.

00:18:45.640 –> 00:18:47.800

Nämlich, was ich letzte Woche schon erwähnt habe,

00:18:47.800 –> 00:18:50.320

wenn ich jetzt eine Beziehung habe zu meinem Roboter

00:18:50.320 –> 00:18:52.040

und bei mir im Haus brennt es,

00:18:52.040 –> 00:18:55.600

und dann aber meinen Roboter rette, was jetzt vielleicht absurd klingt,

00:18:55.600 –> 00:18:58.600

aber ich habe eine Beziehung, und das würde mir viel zu lange dauern,

00:18:58.760 –> 00:19:03.400

einen nächsten Roboter wieder so lange zu haben, dass der genau das macht, was ich will,

00:19:03.400 –> 00:19:07.520

dass der genau auf mich abgestimmt ist. Und vielleicht entscheide ich mich dann in einem

00:19:07.520 –> 00:19:11.560

Krisenfall, meinen Roboter eher zu retten als meinen Nachbarn, den ich vielleicht eh

00:19:11.560 –> 00:19:17.000

nicht mag und so weiter. Und das, wie gesagt, da in die Zukunft zu gucken, da finde ich

00:19:17.000 –> 00:19:21.960

das gut, dass wir ein Ethiker haben, lieber Jürgen, weil da einfach Dinge auf uns zukommen,

00:19:21.960 –> 00:19:25.440

die wir momentan noch gar nicht durchdenken, weil die halt einfach noch nicht da sind.

00:19:25.440 –> 00:19:30.400

Und wenn sie dann da sind, dann ist es vielleicht zu spät, sich darüber Gedanken zu machen,

00:19:30.400 –> 00:19:33.960

weil es dann immer schwieriger wird, nachfolgende Gesetze zu ändern.

00:19:33.960 –> 00:19:38.800

Ja, vielen, vielen lieben Dank.

00:19:38.800 –> 00:19:46.320

Und bei mir ist nochmal der Impuls aufgekommen, vielleicht auch getriggert durch die Begrifflichkeiten,

00:19:46.320 –> 00:19:52.680

die verwendet wurden in Bezug auf Ethik, was denn richtig und falsch bzw. gut und böse

00:19:52.680 –> 00:19:59.240

ist im Kontext mit Technologien, da stellt sich mir die Frage, ob das denn überhaupt

00:19:59.240 –> 00:20:06.240

so klar definiert werden muss. Und dann daraus ergibt sich ja dann auf der einen Seite eben

00:20:06.240 –> 00:20:15.200

auf der Ebene des Ethikrates zum Beispiel etwas, was zum Beispiel in Anführungsstrichen

00:20:15.200 –> 00:20:20.560

definiert oder vorgegeben wird und auf der anderen Seite eben diese individuelle Ebene.

00:20:20.560 –> 00:20:25.320

wenn wir jetzt noch mal anders uns

00:20:25.320 –> 00:20:27.640

annähern an das Thema, nämlich nicht,

00:20:27.640 –> 00:20:29.080

dass irgendjemand definiert, egal von

00:20:29.080 –> 00:20:30.560

welcher Seite, auch individuell nicht

00:20:30.560 –> 00:20:32.560

definiert wird, was gut oder böse ist,

00:20:32.560 –> 00:20:34.840

sondern in Anführungsstrichen, wir haben

00:20:34.840 –> 00:20:38.520

ja festgestellt, dass im Grunde genommen

00:20:38.520 –> 00:20:40.520

nichts davon gut oder schlecht ist oder

00:20:40.520 –> 00:20:42.960

richtig oder falsch ist, sondern es ist

00:20:42.960 –> 00:20:45.120

ja immer die Perspektive, aus der

00:20:45.120 –> 00:20:48.320

das Ganze betrachtet wird und in

00:20:45.120 –> 00:20:51.880

Insofern hat es ja auch was damit zu tun, dass wir uns auch die Frage stellen können.

00:20:51.880 –> 00:20:57.080

Wir hatten ja zum Beispiel über geordnete Schlüsselqualifikationen gesprochen.

00:20:57.080 –> 00:21:02.240

Hier laufen wir jetzt vom Begrifflichen in Richtung Future Skills.

00:21:02.240 –> 00:21:06.840

Wir werden dieses Thema Future Skills auch nochmal separat und Mega-Learning auch nochmal

00:21:06.840 –> 00:21:10.960

separat aufgreifen und hier nochmal genauer hinschauen in den nächsten Tagen.

00:21:10.960 –> 00:21:14.600

Aber zumindest schon mal hier das mit angestriffen zu haben,

00:21:14.600 –> 00:21:18.800

eben ob es nicht unabhängig davon, welche Begriffe wir jetzt verwenden,

00:21:18.800 –> 00:21:23.080

dafür also diese ursprünglich gedachten übergeordneten Schlüsselqualifikationen

00:21:23.080 –> 00:21:28.480

hier in diesem Kontext auch so weit zu gehen und zu sagen, eben eine gewisse

00:21:28.480 –> 00:21:32.800

Art Sensibilisierung auf die Themen aufzumachen, Menschen so zu

00:21:32.800 –> 00:21:37.600

begleiten oder die Leitplanken so zu setzen,

00:21:38.080 –> 00:21:43.760

dass innerhalb dieser Menschen auch befähigt werden, sozusagen selbst immer wieder in die

00:21:43.760 –> 00:21:49.760

Abwägung zu kommen, also ohne dass man das von außen vorgibt oder vordefiniert und das

00:21:49.760 –> 00:21:54.200

Individuum selbst dann auch noch mal als Konsequenz den Abgleich für sich selbst auch an der

00:21:54.200 –> 00:21:55.200

Stelle machen muss.

00:21:55.200 –> 00:22:01.720

Ist so was so aus eurer Sicht eben auch denkbar und möglich und wäre das zielführend als

00:22:01.720 –> 00:22:04.080

Frage auch mal mit reingegeben.

00:22:04.080 –> 00:22:05.720

Jürgen, magst du dazu anschließen?

00:22:05.720 –> 00:22:07.720

(Rednerwechsel)

00:22:07.720 –> 00:22:21.720

Ja, ich bringe, um ganz ehrlich zu sein, eigentlich den Eingang

00:22:21.720 –> 00:22:25.720

deiner Bemerkung mit dem Schluss nicht mehr zusammen.

00:22:25.720 –> 00:22:29.720

Vielleicht habe ich das aber auch, weil ich im Moment in einem sehr

00:22:29.720 –> 00:22:33.720

heraus intensiven Umfeld mich aufhalte, vielleicht nicht so

00:22:33.720 –> 00:22:40.320

richtig verstanden, liebe Yasemin, aber deswegen gebe ich die Frage jetzt noch

00:22:40.320 –> 00:22:49.280

mal zurück, gehst du davon aus, dass es eine sowohl individuelle Ebene,

00:22:49.280 –> 00:22:54.920

der Definition dieser Ethik, dieses Gut und Böse, nämlich jetzt mal

00:22:54.920 –> 00:22:59.960

schlagmutterartig, gibt, als auch eine institutionalisierte. Ich habe dich

00:22:59.960 –> 00:23:05.280

nämlich, ich frage deswegen, weil ich am Anfang verstanden habe, dass du dich von

00:23:05.280 –> 00:23:10.960

diesen beiden Positionen trennen möchtest. Und da habe ich mich gefragt,

00:23:10.960 –> 00:23:19.000

welche Ebene greift denn dann? Weil zum Beispiel eine neue Technologie existiert

00:23:19.000 –> 00:23:25.240

ja nicht per se, sondern sie hat immer eine Intention, auf jeden Fall von demjenigen,

00:23:25.240 –> 00:23:30.240

der sie erschafft. Aber es kann sein, wie gesagt, aufgrund der

00:23:30.240 –> 00:23:33.240

derzeitigen Umwelt, dass ich das falsch verstanden habe. Sorry.

00:23:33.240 –> 00:23:39.240

Ja, vielen, vielen lieben Dank für die Frage. Also mir geht es darum,

00:23:39.240 –> 00:23:44.240

die Technologie sozusagen nicht per se als gut oder schlecht zu definieren.

00:23:44.240 –> 00:23:50.240

Also es kann zwar eben verschiedene Ebenen geben, auf denen wir

00:23:50.240 –> 00:23:56.780

ethisch gewisse Dinge definieren, ja, aber nicht die Technologie als solches, also zum

00:23:56.780 –> 00:24:01.200

Beispiel zu sagen, Atomkraftwerke sind per se grundsätzlich schlecht, davon wollen wir

00:24:01.200 –> 00:24:10.540

weg, sondern auch hier sozusagen gewisse Türen offen zu lassen, im Hinblick auf Leitplanken

00:24:10.540 –> 00:24:17.600

zu setzen, zwar, aber nicht per se von vornherein zu definieren, welche Technologie denn jetzt

00:24:17.600 –> 00:24:22.600

oder schlechtes oder ähnliches.

00:24:22.600 –> 00:24:27.200

Das meinte ich damit. Jürgen, magst du

00:24:27.200 –> 00:24:31.840

da noch mal anschließen? Okay, da finden wir

00:24:31.840 –> 00:24:33.880

uns jetzt zusammen, weil und ich gehe jetzt

00:24:33.880 –> 00:24:38.240

also das ist glaube ich eine wirklich eine

00:24:38.240 –> 00:24:43.040

eine sehr divisive und

00:24:43.040 –> 00:24:46.560

eigengeprägte Anschauungsweise. Ich gehe

00:24:43.040 –> 00:24:49.560

Ich gehe mal davon aus, dass du das in gleicher Intention so benutzt oder siehst, wie ich,

00:24:49.560 –> 00:24:55.840

dass ich sage, die Technologie an sich macht nicht gut und böse und die entscheidet auch

00:24:55.840 –> 00:25:02.160

nicht darüber, ob sie richtig oder falsch ist, sondern derjenige, der die Technologie

00:25:02.160 –> 00:25:08.440

entwickelt, der die Technologie nutzt und der sie für seine Zwecke nutzt.

00:25:08.440 –> 00:25:11.840

Habe ich dich da in der Richtung richtig verstanden?

00:25:11.840 –> 00:25:13.840

Ja, absolut.

00:25:13.840 –> 00:25:19.840

Okay, da sind wir beieinander.

00:25:19.840 –> 00:25:23.840

Dann stellt sich für mich aber auch die Frage,

00:25:23.840 –> 00:25:27.840

wenn ich eine neue Technologie habe,

00:25:27.840 –> 00:25:29.840

wie das Beispiel das Marc angeführt hat,

00:25:29.840 –> 00:25:32.840

mit diesen Genscheren zum Beispiel,

00:25:32.840 –> 00:25:34.840

die ich gerne aufnehme,

00:25:34.840 –> 00:25:37.840

weil ich da vor kurzem auch etwas darüber gelesen habe,

00:25:37.840 –> 00:25:47.600

dann ist man durchaus in der Lage, wie bei vielen anderen Dingen sowohl positives als auch negatives

00:25:47.600 –> 00:25:55.280

zu sehen. da ist der markt ja auch darauf eingegangen. der unterschied und der prägende

00:25:55.280 –> 00:26:02.040

Unterschied auch im Hinblick auf bis hin zum Storytelling dieser neuen Technologie ist aber,

00:26:02.040 –> 00:26:10.820

dass der Außenstehende, sowohl du als auch ich, als auch der Marc, mit ganz anderen Augen darauf

00:26:10.820 –> 00:26:20.520

schaut und genauso schaut mit anderen Augen die Politik darauf. Die Politik schaut, da lehne ich

00:26:20.520 –> 00:26:30.600

mich jetzt mal aus dem Fenster, aus Opportunitäts- und aus in Anführungsstrichen Machtaspekten

00:26:30.600 –> 00:26:39.560

auf diese Technologie. Was aber im Grunde genommen kaum etwas anderes ist, als meine Sichtweise,

00:26:39.560 –> 00:26:45.480

ich will euch da jetzt nicht inkludieren, das möchte ich nicht tun, aber aus meiner Sichtweise,

00:26:45.480 –> 00:26:51.000

indem ich, und jetzt sind wir wieder bei der Grundstruktur der Neurowissenschaft, liebe

00:26:51.000 –> 00:27:00.600

Yasmin, in dem ich sage, was nützt es mir oder muss ich mich davor fürchten und im Grunde genommen

00:27:00.600 –> 00:27:08.160

schließt sich für mich da eben dieser Kreis, dass ich sagte, die Technologie, eine neue Technologie

00:27:08.160 –> 00:27:16.040

oder eine abgewandte Technologie existiert niemals per se, sondern sie hat immer einen Onlooker,

00:27:16.040 –> 00:27:22.200

einer der drauf schaut und der eine gewisse Motivation, eine Intention und

00:27:22.200 –> 00:27:27.800

eine Vision oder Zielsetzung damit verbindet.

00:27:27.800 –> 00:27:34.000

Ja wunderbar, vielen vielen Dank. Marc magst du hier anschließen?

00:27:34.000 –> 00:27:39.000

Ja ich habe nämlich noch einen Punkt, weil als ich das mit diesen Babys, mit

00:27:39.000 –> 00:27:42.080

den drei Mädchen in Chile gelesen habe, da kommt noch ein viel interessanterer

00:27:42.080 –> 00:27:46.240

Aspekt dazu. Was ist denn mit dem Datenschutz? Also nehmen wir mal an, ich

00:27:46.240 –> 00:27:49.520

bin gentechnisch behandelt und kann jetzt kein HIV mehr bekommen.

00:27:49.520 –> 00:27:53.320

Jetzt bin ich auf der Suche nach einer Partnerin und hätte auch unheimlich

00:27:53.320 –> 00:27:57.360

gern ein Kind mit dieser Partnerin. Inwiefern muss das dann geregelt werden?

00:27:57.360 –> 00:28:01.240

Es könnte ja sein, dass die Partnerin eine andere Einstellung hat als ich. Also

00:28:01.240 –> 00:28:04.400

sagen wir mal, meine Partnerin sagt, ich möchte kein Kind mit dir. Ja warum denn

00:28:04.400 –> 00:28:08.080

nicht? Du bist gentechnisch behandelt. Ich habe Riesenangst, was das mit unserem

00:28:08.080 –> 00:28:12.720

Baby macht. Ich möchte kein King von einem Mann, der gentechnisch behandelt ist. Und

00:28:12.720 –> 00:28:16.360

ich sage einfach, das ist mein Ding, das möchte ich dir nicht sagen, weil das ist

00:28:16.360 –> 00:28:19.720

meine private Sache. Und schon sind wir wieder bei den Gesetzen. Wo hört meine

00:28:19.720 –> 00:28:23.840

Freiheit auf, das Individuelle? Und wo müssen Sachen geregelt werden? Wenn es

00:28:23.840 –> 00:28:27.520

meine eigene Sache ist, kann ich ja sagen, ich sage dir das nicht, das ist

00:28:27.520 –> 00:28:30.600

mein eigenes Ding. Aber genauso gut hat der andere das Recht zu sagen, hör mal zu,

00:28:30.600 –> 00:28:35.880

ich entscheide aber trotzdem, mit wem ich mich fortpflanze oder nicht.

00:28:35.880 –> 00:28:40.080

Ach ja, herrlich, vielen, vielen lieben Dank. Und das Spannende ist halt, hier

00:28:40.080 –> 00:28:44.240

kommt, hier wird ja deutlich, welche Komplexität das Ganze hat, weil es eben

00:28:44.240 –> 00:28:47.520

dann nicht nur, und deswegen fand ich das jetzt auch noch mal ein schönes

00:28:47.520 –> 00:28:51.000

Beispiel an der Stelle, weil es ja nicht nur in Anführungsstrichen

00:28:51.000 –> 00:28:55.320

möglicherweise uns selbst betrifft an der Stelle, sondern zum Beispiel, wenn wir

00:28:55.320 –> 00:29:01.560

eben in der Konstellation, Institution Familie, Ehe und so weiter

00:29:01.560 –> 00:29:06.540

denken, eben Familie auch mit dazunehmen. Dann eben auch so was wie, dann betrifft

00:29:06.540 –> 00:29:12.740

das eben auch Aspekte wie Kinder, die vielleicht noch, ja, noch nicht

00:29:12.740 –> 00:29:16.200

volljährig sind, die selbst keine Entscheidungen treffen können und und

00:29:16.200 –> 00:29:19.800

und. Und das macht sehr, sehr deutlich, wie schnell eben auch diese Komplexität

00:29:19.800 –> 00:29:26.680

hier einfach sichtbar zu machen, also dass die auch vorhanden ist. Und auch

00:29:26.680 –> 00:29:30.040

an, wenn wir an verschiedenen Stellen auch verschiedene Diskussionen

00:29:30.040 –> 00:29:34.640

aufgreifen, ob das jetzt Technologien sind, ob das andere Zusammenhänge sind,

00:29:34.640 –> 00:29:41.760

auch gerade bei den ganzen Diskussionen, die ja da auch aktuell stattfinden,

00:29:41.760 –> 00:29:48.400

angefangen vom Gendern bis hin zu, ja, diese Regenbogenbewegungen bis hin zu

00:29:48.400 –> 00:29:53.800

Umoperationen, die gestattet werden sollen oder nicht oder wie damit umgegangen

00:29:53.800 –> 00:29:59.200

wird, wenn Eltern dem nicht zustimmen oder ähnliches. Also all das kann man hier

00:29:59.200 –> 00:30:03.520

sehr schön gerade auch in den Diskussionen aktuell ja auch beobachten,

00:30:03.520 –> 00:30:09.220

was das eben auch dann an unterschiedlichen Impulsen auslöst, wie

00:30:09.220 –> 00:30:15.000

darüber diskutiert wird. Und auch hier sind ja überall ethische Aspekte

00:30:15.000 –> 00:30:18.440

mit dabei, die hier eine ganz wesentliche Rolle bei diesen ganzen

00:30:18.440 –> 00:30:23.520

Betrachtungsweisen auch spielen und wie Menschen eben auch darauf reagieren, wie

00:30:23.520 –> 00:30:28.720

ihre Haltung eben letztendlich auch zu bestimmten Themen ist, in Anführungsstrichen.

00:30:28.720 –> 00:30:33.760

ohne das zu bewerten, sondern einfach erst mal neutral zu beobachten und aus

00:30:33.760 –> 00:30:38.840

dieser Perspektive mal drauf zu schauen. Und also von daher wird deutlich, dass

00:30:38.840 –> 00:30:44.200

hier diese Komplexität vorhanden ist und das ist das, was es auch so

00:30:44.200 –> 00:30:49.240

herausfordernd macht, hier auch in Anführungsstrichen Lösungen dafür, für

00:30:49.240 –> 00:30:53.200

diese Thematik oder Problematik sozusagen auch zu finden. Und

00:30:53.200 –> 00:30:58.200

möglicherweise auch, dass mit einer der Gründe ist, warum am Ende in

00:30:58.200 –> 00:31:02.200

Anführungsstrichen, es dann zwar vielleicht viele Diskussionen gibt oder

00:31:02.200 –> 00:31:07.360

viele Ansätze und Überlegungen, aber immer wieder die Lösung dann doch darin

00:31:07.360 –> 00:31:11.320

gefunden wird, zu sagen, jetzt muss es doch von einer zentralen Stelle irgendwie,

00:31:11.320 –> 00:31:15.400

wer auch immer die zentrale Stelle dann ist, das kann ja auch unterschiedlich

00:31:15.400 –> 00:31:19.440

sein, je nachdem, was wir uns da betrachten, von zentraler Stelle

00:31:19.440 –> 00:31:22.640

irgendwie vorgegeben werden oder gesteuert werden, weil sonst kommen wir

00:31:22.640 –> 00:31:25.800

hier an der Stelle nicht weiter. Ist das denn überhaupt eine Lösung?

00:31:25.800 –> 00:31:30.020

Fragezeichen wäre ja dann auch die nächste Fragestellung, die wir mit

00:31:30.020 –> 00:31:34.380

aufgreifen können an der Stelle. Mag da jemand noch mal mit andocken an der Stelle?

00:31:34.380 –> 00:31:44.540

Ich habe da noch mal einen Punkt, liebe Yasemin. Wir wissen ja auch alle, das können wir uns am

00:31:44.540 –> 00:31:49.500

besten vorstellen, dass das Handy uns alle verändert hat. Zumindest sagt man,

00:31:49.500 –> 00:31:53.820

und es gibt Untersuchungen, dass das Handy die Aufmerksamkeitsspanne der Kinder verändert hat.

00:31:53.820 –> 00:31:57.660

Also dass die Kinder eine ganz andere Konzentration in der Schule haben, wie vorher.

00:31:57.660 –> 00:32:02.740

Wenn es bevor es die Hände gegeben hätte, jemand gesagt hätte, Achtung, Handy, vorsichtig,

00:32:02.740 –> 00:32:06.380

könnte was mit unserer Konzentration machen, das hätte man ja gar nicht gewusst.

00:32:06.380 –> 00:32:07.900

Und das Gleiche ist mit den Robotern.

00:32:07.900 –> 00:32:13.580

Es gibt also einen Test, wo man in einer Kindergrippe, da waren die Kinder zwischen 18 und 24 Monate,

00:32:13.580 –> 00:32:15.780

den hat man einen tanzenden Roboter mitgebracht.

00:32:15.780 –> 00:32:21.100

Und dann hat man festgestellt, dass nach fünf Monaten schon die Kinder den Roboter so angenommen

00:32:21.100 –> 00:32:24.940

haben, das heißt, wenn der keinen Strom mehr hatte und der sich nicht mehr bewegt hat,

00:32:24.940 –> 00:32:29.620

dann haben die Kinder angefangen, also Kinder bis zu 24 Monate, den Roboter zu schütteln

00:32:29.620 –> 00:32:33.220

und haben dann gedacht, also mehr oder weniger stehe auf, der ist vielleicht müde. Und wenn

00:32:33.220 –> 00:32:36.780

sie dann gedacht haben, der steht nicht auf, dann war der Schluss, der ist müde. Dann

00:32:36.780 –> 00:32:40.780

haben diese Kinder also den Roboter wie ein Gleichaltrigem behandelt, haben dann eine

00:32:40.780 –> 00:32:44.500

Decke genommen und haben den Roboter zugedeckt, weil wenn der sich nicht bewegt und nicht

00:32:44.500 –> 00:32:48.100

tot ist, dann schläft er ja nur. Und das kann man jetzt weiterspielen. Jetzt gibt es

00:32:48.100 –> 00:32:51.740

keine Untersuchung, wie verändert sich dann so ein Kind, also wenn das Kind länger in

00:32:51.740 –> 00:32:55.940

so einer Gruppe aufwächst mit einem Roboter, kann das auch sein, dass das Verhalten von

00:32:55.940 –> 00:33:00.540

den Kindern auch ein ganz anderes ist, als Kinder, die ohne tanzenden Roboter oder ohne

00:33:00.540 –> 00:33:04.540

KI aufgewachsen sind. Und dann wären wir wieder bei der ethischen Frage und da das

00:33:04.540 –> 00:33:09.100

niemand von uns weiß, wird auch kein Politiker diese Frage eindeutig beantworten können.

00:33:09.100 –> 00:33:13.900

Ich kann es auch nicht. Und darum sind Diskussionen wichtig und auch wieder Bildung, Fragen und

00:33:13.900 –> 00:33:19.180

Hinterfragen immer zu schauen, wen vertritt der, aus welcher Gruppe kommt der, ist das ein Lobbyist,

00:33:19.180 –> 00:33:26.100

der für eine Roboterfirma arbeitet oder wie auch immer, aber nicht diese Fragen, wie gesagt,

00:33:26.100 –> 00:33:31.140

so zu kontrollieren, wo kommen die Antworten meines Gegenübers hin. Diese Sache losgelöst zu

00:33:31.140 –> 00:33:35.660

betrachten, Javier Asmin, finde ich auch interessant. Wenn du sagst, grundsätzlich ist eine Technologie

00:33:35.660 –> 00:33:41.620

nicht gut oder böse, dann kann ich ja auch einfach sagen, naja gut, dann ist ja auch ein Politiker

00:33:41.620 –> 00:33:47.140

nicht gut oder böse, auch dann ist etwas nicht gut oder richtig. Und wenn der

00:33:47.140 –> 00:33:50.340

hoffentlich nicht gewählt wird, der nächste amerikanische Präsident wieder

00:33:50.340 –> 00:33:54.220

sagt, was schert uns Europa, das ist doch vollkommen egal und wir lassen auch

00:33:54.220 –> 00:33:57.420

keine Ausländer mehr rein, dann ist das ja auch nicht richtig oder falsch, dann

00:33:57.420 –> 00:34:02.100

ist das erst mal ein Statement. Und daher bin ich dann eher Jürgens Ansicht,

00:34:02.100 –> 00:34:05.140

dass es immer verschiedene Interessen gibt, so sind wir Menschen gestrickt,

00:34:05.140 –> 00:34:09.220

unsere Emotionen werden wir nicht ausschalten können, das unterscheidet uns

00:34:09.220 –> 00:34:12.740

Gott sei Dank von einem Roboter. Und solange wir Emotionen haben, solange es

00:34:12.740 –> 00:34:17.140

Menschen mit Emotionen gibt, wird es auch diese Diskussion geben. Und das geht

00:34:17.140 –> 00:34:22.060

eben nur mit Respekt und einer Auseinandersetzung auf Augenhöhe.

00:34:22.060 –> 00:34:26.820

Ja super, vielen, vielen lieben Dank. Und das zeigt ja dann letztendlich auch, dass

00:34:26.820 –> 00:34:32.660

es dadurch, dass ja viele Dinge eben auch nicht absehbar sind, dass zum einen

00:34:32.660 –> 00:34:36.420

viele verschiedene Türen, in Anführungsstrichen, so will ich es jetzt

00:34:36.420 –> 00:34:40.780

mal bezeichnen, auch offengelassen werden müssen an der einen Stelle, weil man muss

00:34:40.780 –> 00:34:46.680

ja auch gewissermaßen überhaupt erstmal beobachten und schauen und kann ja auch

00:34:46.680 –> 00:34:51.060

nicht alles in der Vorausschau sozusagen planen, weil man eben auch die Auswirkungen

00:34:51.060 –> 00:34:54.780

von gewissen Technologien vielleicht auch gar nicht kennt und das noch gar

00:34:54.780 –> 00:34:58.700

nicht beurteilen kann. Das ist mal das eine. Deswegen kann man ja auch nicht

00:34:58.700 –> 00:35:02.780

überall restriktiv sozusagen drauf blicken und schon gewisse Dinge

00:35:02.780 –> 00:35:06.340

untersagen, obwohl man noch gar nicht weiß, wie sich das entwickelt oder was

00:35:06.340 –> 00:35:12.020

passieren wird. Gleichzeitig zeigt es auch, dass es an der einen oder anderen

00:35:12.020 –> 00:35:15.580

Stelle eben auch eine hohe Reaktionsgeschwindigkeit oder

00:35:15.580 –> 00:35:20.300

Diskussions- oder Reaktionsgeschwindigkeit braucht, um agil eben auch auf

00:35:20.300 –> 00:35:25.180

bestimmte Herausforderungen und Probleme, die sich dann aber auch abzeichnen lassen,

00:35:25.180 –> 00:35:31.580

eben in Anführungsstrichen schnell genug zu reagieren und hier auch Türen

00:35:31.580 –> 00:35:34.820

in Anführungsstrichen wieder zuzumachen, die vorher offen gelassen wurden

00:35:34.820 –> 00:35:40.820

möglicherweise. Und gleichzeitig ist es aber so, dass ein Diskurs mit der

00:35:40.820 –> 00:35:44.900

Betrachtung verschiedener Perspektiven und so weiter ja auch etwas ist, was auch

00:35:44.900 –> 00:35:50.140

eine gewisse Zeit per se, also es liegt in der Sache sozusagen, auch braucht.

00:35:50.140 –> 00:35:55.900

Also der Zeitfaktor spielt hier eine enorme Rolle an der Stelle, mit

00:35:55.900 –> 00:36:00.860

also einem Spannungsfeld, in dem wir uns befinden. Auf der einen Seite sozusagen

00:36:00.860 –> 00:36:06.500

zu sehen, da rollt was auf uns zu. Da ist es erforderlich, eben auch ethisch drauf

00:36:06.500 –> 00:36:11.480

zu gucken, in Anführungsstrichen, und hier möglicherweise im Diskurs auch zu

00:36:11.480 –> 00:36:14.940

überlegen, was kann man machen oder wie kann man damit vorgehen und gleichzeitig

00:36:14.940 –> 00:36:18.260

auf der einen Seite nicht zu viel Zeit verstreichen zu lassen, auf der anderen

00:36:18.260 –> 00:36:23.900

Seite aber dem auch die Zeit zu geben, eben hier auch Probleme wirklich

00:36:23.900 –> 00:36:27.100

erstmal sichtbar werden zu lassen, die man vielleicht in der Vorausschau gar

00:36:27.100 –> 00:36:32.860

nicht erblicken oder erahnen kann, um dann entsprechend auch wieder damit umzugehen,

00:36:32.860 –> 00:36:36.620

sobald es in Anführungsstrichen möglicherweise dann eingetroffen ist,

00:36:36.620 –> 00:36:39.940

auch wenn man damit vorher nicht gerechnet hat, in Anführungsstrichen.

00:36:39.940 –> 00:36:45.060

Und dann kann man natürlich auch verschiedene, und jetzt reden wir ja relativ abstrakt darüber,

00:36:45.060 –> 00:36:48.740

und es wird ja deutlich, dass es hier auch wahrscheinlich darauf ankommt,

00:36:48.740 –> 00:36:53.140

um welche Kontexte sprechen wir denn eigentlich, und dass es hier auch nochmal

00:36:53.140 –> 00:37:00.940

möglicherweise leichter fällt, auch Antworten zu finden oder uns eher anzunähern, wenn wir auch

00:37:00.940 –> 00:37:07.740

ganz konkretere Beispiele nehmen. Und eines der Beispiele, was jüngst sehr, sehr stark ja auch

00:37:07.740 –> 00:37:13.340

an verschiedenen Stellen diskutiert wurde, ist ja so etwas wie zum Beispiel die Nutzung von

00:37:13.340 –> 00:37:21.620

künstlicher Intelligenz oder bei der zum Beispiel Videogestaltung oder Ähnliches, wo man eben zum

00:37:21.620 –> 00:37:25.820

Beispiel die Stimmen von Promis verwenden kann, Bilder von Promis verwenden kann,

00:37:25.820 –> 00:37:32.620

wo es dem Menschen heute schon nicht mehr leicht fällt, zu unterscheiden zu können,

00:37:32.620 –> 00:37:39.100

ist das jetzt echt oder fake. In Zukunft, wenn die Systeme hier noch ausgereifter sind,

00:37:39.100 –> 00:37:44.820

wird das wahrscheinlich mit bloßem Auge überhaupt nicht mehr erkennbar sein.

00:37:44.820 –> 00:37:50.060

Jetzt, heute geht es teilweise noch, da kann man dann genauer draufschauen und wird vielleicht

00:37:50.060 –> 00:37:54.060

noch ein paar Unstimmigkeiten finden.

00:37:54.060 –> 00:37:55.260

Aber häufig nehmen wir uns ja gar

00:37:55.260 –> 00:37:58.300

nicht die Zeit, sondern sehen

00:37:58.300 –> 00:38:00.260

beispielsweise ein Video auf Social

00:38:00.260 –> 00:38:03.020

Media und scrollen dann auch relativ

00:38:03.020 –> 00:38:04.780

schnell weiter. Das heißt, hier kann man ja

00:38:04.780 –> 00:38:07.340

relativ schnell auch wirklich das

00:38:07.340 –> 00:38:10.500

Gefühl haben, etwas gesehen zu haben,

00:38:10.500 –> 00:38:13.220

was dann eben ein Politiker oder irgendein

00:38:13.220 –> 00:38:15.380

Promi gesagt haben soll, was aber die

00:38:15.380 –> 00:38:19.580

Person gar nicht getan hat. Das heißt,

00:38:15.380 –> 00:38:21.740

hier in Richtung Fake News sozusagen auch gewisse Dinge in Verbreitung kommen.

00:38:21.740 –> 00:38:26.820

Wenn man jetzt in Richtung zum Beispiel Politik denken, Wahlen denken oder so,

00:38:26.820 –> 00:38:30.900

dann kann das natürlich auch verheerende Folgen haben. Also nicht nur in Bezug auf

00:38:30.900 –> 00:38:36.180

das Individuum, das dem hier geschädigt werden kann im Hinblick auf Reputation

00:38:36.180 –> 00:38:41.820

und so weiter und so fort, sondern bis hin zu eben auch auf der Ebene der

00:38:41.820 –> 00:38:45.940

Politik, dass hier eben auch Entscheidungen getroffen werden, Wahlen

00:38:45.940 –> 00:38:49.740

manipuliert werden oder Sonstiges. Und das sind ja tatsächlich dann auch ernst

00:38:49.740 –> 00:38:54.100

zu nehmende Themen, wo es ja wirklich auch Sinn macht, draufzuschauen

00:38:54.100 –> 00:38:57.780

und zu überlegen, wie kann man da eben in Zukunft in Anführungsstrichen damit

00:38:57.780 –> 00:39:03.660

auch umgehen. Und da bin ich jetzt mal gespannt, Marc, was du dazu sagst.

00:39:03.660 –> 00:39:08.640

Wir haben ja auch über diesen Sicherheitsaspekt gesprochen. Natürlich

00:39:08.740 –> 00:39:12.940

macht es Sinn, wir kennen es von den Flughäfen, natürlich macht es Sinn, dass

00:39:12.940 –> 00:39:18.600

hier eben auch Personenkontrollen stattfinden, Personalausweise kontrolliert

00:39:18.600 –> 00:39:24.520

werden, dass entsprechend Security-Checks stattfinden und so weiter. Aber eine

00:39:24.520 –> 00:39:28.640

hundertprozentige Sicherheit in dem Sinne gibt es ja auch nicht. Und ich

00:39:28.640 –> 00:39:32.920

denke, das ist auch etwas, was bei diesen Diskussionen mit zu berücksichtigen ist,

00:39:32.920 –> 00:39:36.720

dass man hier eben immer wieder in Anführungsstrichen letztendlich ein

00:39:36.720 –> 00:39:43.260

bestreben hat, gewisse Leitplanken zu setzen, Diskurse zu haben, Lösungen zu

00:39:43.260 –> 00:39:49.000

finden, aber dass es niemals eine eine Lösung geben wird, egal von welcher

00:39:49.000 –> 00:39:54.320

Seite oder von welcher Ebene wir uns dem Ganzen hier thematisch annähern, die dann

00:39:54.320 –> 00:40:00.880

die absolute Lösung darstellen wird, sondern es auch hier anzunehmen, dass es

00:40:00.880 –> 00:40:05.480

keine endgültige Lösung gibt für diese Problematik, sondern dass es immer wieder

00:40:05.480 –> 00:40:10.480

neue Situationen geben wird, an die man nicht gedacht hat, immer wieder neue

00:40:10.480 –> 00:40:15.480

Aspekte, die sich vorher nicht berücksichtigen lassen haben,

00:40:15.480 –> 00:40:20.480

überraschende Momente, die wir erleben werden als Menschen, wo wir dann in

00:40:20.480 –> 00:40:24.480

der Situation einfach immer wieder auch aufs Neue gucken werden müssen, deswegen

00:40:24.480 –> 00:40:29.480

auch nicht den Anspruch zu haben, hier eine endgültige Lösung zu finden.

00:40:29.480 –> 00:40:31.480

Marc, was sagst du denn dazu?

00:40:31.480 –> 00:40:37.880

Ja, zu meinem Sicherheitsaspekt. Uns muss halt bewusst werden, viele dieser Technologien werden nur funktionieren,

00:40:37.880 –> 00:40:43.080

indem wir Daten sammeln und auch Daten speichern. Und es gibt schon Länder, das hat mich sehr erschrocken,

00:40:43.080 –> 00:40:47.280

okay, wir wissen überall, dass Kameras zur Sicherheit eingesetzt werden.

00:40:47.280 –> 00:40:52.680

Jetzt kann ich ja auf die clevere Idee kommen zu sagen, gut, das ist mir egal, ich ziehe mir halt eine Baseball Cap übers Gesicht

00:40:52.680 –> 00:40:57.880

oder ich trage eine Strickmütze oder so eine Motorradmütze, dann kann ich das ja verhindern, dass die mich erkennen.

00:40:57.880 –> 00:41:02.880

Das ist aber sehr ignorant und auch naiv, denn mittlerweile gibt es KI-Systeme,

00:41:02.880 –> 00:41:05.880

die mich genau am Gang ausmachen können.

00:41:05.880 –> 00:41:07.880

Das heißt, der Mensch hat so einen individuellen Gang,

00:41:07.880 –> 00:41:11.880

dass die Kamera mich allein meines Gang- und Bewegungsbildes abgleichen kann.

00:41:11.880 –> 00:41:15.880

Das funktioniert ja aber nur wieder, wenn meine Daten grundsätzlich speichert werden.

00:41:15.880 –> 00:41:20.880

Wenn ich einmal aufgenommen bin und diese Daten meiner Person zugeordnet werden,

00:41:20.880 –> 00:41:24.880

nur dann kann die KI mich auch wieder erkennen, wenn ich irgendwo anders mal wieder auftauche.

00:41:24.880 –> 00:41:28.680

Auftauch. Zum einen hätten wir dann den Sicherheitsaspekt, super, weil wenn ich

00:41:28.680 –> 00:41:32.200

was Böses vorhabe, ist das ja eine Sicherheit für euch alle, dass man mich

00:41:32.200 –> 00:41:35.960

erkennt, wenn ich am Flughafen mit einer Maske herumlaufe. Zum anderen ist es, wie

00:41:35.960 –> 00:41:39.640

viele böse Menschen gibt es und müssen dann alle Bürger darunter leihen und

00:41:39.640 –> 00:41:43.760

darum ist Datenschutz, finde ich, bei dieser ganzen Thematik auch ein Aspekt,

00:41:43.760 –> 00:41:47.760

den wir bestimmt immer wieder diskutieren werden.

00:41:47.760 –> 00:41:53.280

Ja, vielen lieben Dank, Marc. Und das macht es natürlich auch nicht weniger

00:41:53.280 –> 00:41:59.640

komplex an der Stelle und zeigt eben auch, ja, also es sind verschiedene Aspekte, die ja jetzt

00:41:59.640 –> 00:42:05.560

hier zusammenkommen. Und Datenschutz ist auch etwas, was auf der einen Seite eben wichtig und

00:42:05.560 –> 00:42:12.760

richtig in Anführungsstrichen ist, im Sinne auch des Personenschutzes, sage ich jetzt einfach mal,

00:42:12.760 –> 00:42:18.600

das Individuum zu schützen an der Stelle. Und auf der anderen Seite eben wird aber auch deutlich,

00:42:18.600 –> 00:42:23.720

Und da stellt sich eben auch die Frage, wie geht man eben auch mit Datenschutz in einer

00:42:23.720 –> 00:42:29.400

digitalen Zeit in Anführungsstrichen um, wo ja auch deutlich wird, und das haben wir

00:42:29.400 –> 00:42:33.640

ja auch in anderen Kontexten schon sehr deutlich gehabt mit diesen neuen Technologien, wie

00:42:33.640 –> 00:42:39.520

wichtig eben auch in Bezug auf Wettbewerb, in Bezug auf Entwicklungen, die hier stattfinden,

00:42:39.520 –> 00:42:40.520

auch die Daten sind.

00:42:40.520 –> 00:42:48.160

Das heißt, wenn man hier aus diesem Gedanken heraus, das Individuum zu schützen, sozusagen

00:42:48.160 –> 00:42:53.480

nichts möglich macht an der Stelle, hat es ja auch Auswirkungen und Konsequenzen, an

00:42:53.480 –> 00:42:59.680

anderer Stelle wieder abgehängt zu werden. Und auch hier merkt man sehr, sehr deutlich,

00:42:59.680 –> 00:43:05.440

wie herausfordernd eben auch genau dieser Umgang damit ist, immer wieder neu zu entscheiden,

00:43:05.440 –> 00:43:12.160

wie gehen wir damit um. Und möglicherweise auch vergangene Entscheidungen auch immer wieder auf

00:43:12.160 –> 00:43:17.640

den Prüfstand zu stellen und vor dem Hintergrund von Entwicklungen immer wieder neu zu prüfen und

00:43:17.640 –> 00:43:23.640

neu zu diskutieren. Das heißt, und das ist das Nächste, was ich daraus ableite, dass eine in der

00:43:23.640 –> 00:43:28.400

Vergangenheit getroffene Entscheidung eben möglicherweise heute auch nicht mehr zeitgemäß

00:43:28.400 –> 00:43:36.320

ist und insofern auch immer wieder kritisch aufzugreifen ist und auch wieder neu zu hinterfragen

00:43:36.320 –> 00:43:42.280

ist, um möglicherweise auch Anpassungen vorzunehmen oder auch neue Entscheidungen zu treffen,

00:43:42.280 –> 00:43:46.800

beziehungsweise vielleicht auch in dem einen oder anderen Fall zu entscheiden, bei der alten

00:43:46.800 –> 00:43:51.560

Entscheidung zu bleiben. Also auch das ist ja nicht ausgeschlossen. Aber um diese Bewertungen,

00:43:51.560 –> 00:43:56.920

Abwägungen etc. vornehmen zu können, braucht es ja auch immer wieder auf der einen Seite

00:43:56.920 –> 00:44:04.520

der erneuten Betrachtung des kritischen Hinterfragens und auch wieder einer neuen Entscheidung,

00:44:04.520 –> 00:44:08.560

angelehnt an verschiedene Abwägungen, die hier vorgenommen werden und gemacht werden.

00:44:08.560 –> 00:44:10.560

Mag Maxe da nochmal anschließen?

00:44:10.560 –> 00:44:15.640

Ja, ich habe noch gerne einen Punkt. Ich denke für mich, ich bin zutiefst davon überzeugt,

00:44:15.640 –> 00:44:20.320

Roboter als Hilfe, also nicht Roboter, die was bauen, sondern Roboter als Hilfe ein

00:44:20.320 –> 00:44:24.080

Riesenthema in der Zukunft werden. Und total interessant finde ich, dass damit

00:44:24.080 –> 00:44:26.920

nicht nur Ingenieure beschäftigt werden, also da gibt es nicht nur Teams, die

00:44:26.920 –> 00:44:30.720

sagen, wie bauen wir denn den Roboter, wie muss der sein, was muss der können.

00:44:30.720 –> 00:44:35.080

Das gibt eben dann auch eben Soziologen und Psychologen und dann laufen dann

00:44:35.080 –> 00:44:39.160

zum Beispiel solche Tests, man will den Roboter ja auch verkaufen und man hat

00:44:39.160 –> 00:44:42.720

festgestellt, dass Menschen sich unwohl fühlen, wenn sich hinter ihrem Rücken

00:44:42.720 –> 00:44:45.280

eine Haushaltshilfe, also so einen fahrenden Roboter bewegen würde.

00:44:45.280 –> 00:44:48.200

Also gibt es tatsächlich Untersuchungen, wie Menschen reagieren

00:44:48.200 –> 00:44:50.760

und wie der Roboter sich auch zu verhalten hat.

00:44:50.760 –> 00:44:53.720

Wenn der Roboter zum Beispiel immer nur den gleichen Satz sagt,

00:44:53.720 –> 00:44:55.800

zum Beispiel, ich habe einen Roboter, der bringt mir Kaffee

00:44:55.800 –> 00:44:58.480

und der kann aber nur sagen, hier ist dein Kaffee, guten Morgen, Marc.

00:44:58.480 –> 00:45:00.440

Dann geht mir das nach zwei Monaten auf die Nerven,

00:45:00.440 –> 00:45:01.760

weil er nichts anderes sagen kann.

00:45:01.760 –> 00:45:04.120

Also muss er mehrere Variationen haben.

00:45:04.120 –> 00:45:06.360

Und dann gibt es parallel dazu Untersuchungen,

00:45:06.360 –> 00:45:07.600

wie fühle ich mich am wohlsten?

00:45:07.600 –> 00:45:09.480

Und der Stand der Erkenntnis heute ist,

00:45:09.480 –> 00:45:11.320

dass Menschen sich weder wohlfühlen,

00:45:11.480 –> 00:45:14.560

wenn ein Roboter von hinten kommt, das ist bedrohlich für sie.

00:45:14.560 –> 00:45:16.080

Noch wenn er von vorne kommt,

00:45:16.080 –> 00:45:19.080

denn auch wenn er von vorne kommt, kann er noch so niedlich aussehen.

00:45:19.080 –> 00:45:21.000

Da wirkt er als Bedrohung.

00:45:21.000 –> 00:45:24.920

Wenn er zu niedlich aussieht, wenn er zu menschenmännisch aussieht,

00:45:24.920 –> 00:45:28.080

dann gleichen wir unbewusst ab, dass der Roboter, wenn er lächelt,

00:45:28.080 –> 00:45:31.000

dass dann eben nicht die Gesichtszüge verändert werden

00:45:31.000 –> 00:45:32.400

und dass die Augen sich nicht bewegen.

00:45:32.400 –> 00:45:35.600

Dann empfinden wir das als unnatürlich und auch wieder befremdlich.

00:45:35.600 –> 00:45:37.280

Es ist vielleicht doch kein Mensch.

00:45:37.280 –> 00:45:41.280

Und da sieht man mal, welche Überlegungen da alles mit einfließen,

00:45:41.440 –> 00:45:45.560

Das hat also nicht nur was mit Technik zu tun, sondern auch, wie werden in Zukunft Maschinen,

00:45:45.560 –> 00:45:49.480

also Roboter in unser Leben integriert, ohne dass wir sie dann eben als Bedrohung,

00:45:49.480 –> 00:45:54.040

sondern wirklich als Arbeitsunterstützung und als, ja weiß nicht, Bereicherung empfinden.

00:45:54.040 –> 00:46:02.520

Ja, vielen Dank. Und da hatte ich ja auch vor einigen Tagen eben das Beispiel mit

00:46:02.520 –> 00:46:08.880

aufgegriffen, dass zum Beispiel im Silicon Valley eben auch entsprechend Tests durchgeführt werden,

00:46:08.880 –> 00:46:14.480

dass man eben sogenannte Showrooms oder so was hat im Silicon Valley, wo man dann,

00:46:14.480 –> 00:46:21.640

oder San Francisco, wo dann eben auch die Bevölkerung lebt, dass man da eben tatsächlich

00:46:21.640 –> 00:46:25.960

auch verschiedene Dinge testet im Sinne von, wie wird das denn angenommen? Und ich hatte das in

00:46:25.960 –> 00:46:33.000

diesem Kontext aufgemacht mit diesen Robotern, die im Hintergrund verschiedene Gerichte zubereiten,

00:46:33.000 –> 00:46:40.120

etc. und so, dass man das zwar per se weiß, aber dass man die Roboter nicht sieht, damit das nicht

00:46:40.120 –> 00:46:46.040

befremdlich wirkt und dass im Endeffekt die Bestellung aufgegeben wird, die Bestellung im

00:46:46.040 –> 00:46:51.760

Hintergrund zubereitet wird und dann man das aus den Schubladen entsprechend sozusagen dann, die

00:46:51.760 –> 00:46:55.240

sich dann entsprechend öffnen, wenn man dann draufklickt, wenn man die Bestellung abholen

00:46:55.240 –> 00:47:01.400

möchte, dass man das rausnimmt und dann verzehrt. Nur mal ein Beispiel, da gibt es ganz verschiedene

00:47:01.400 –> 00:47:07.120

Showrooms, die es dort gibt. Da gibt es auch übrigens von Amazon und so weiter, wo man dann

00:47:07.120 –> 00:47:16.520

eben zum Beispiel auch schaut, da wird dann getrackt, welche Produkte dann in die Hand

00:47:16.520 –> 00:47:21.840

genommen werden, was man sich da genau anschaut oder Sonstiges, sodass eben auch das Verhalten

00:47:21.840 –> 00:47:26.040

des Menschen an der Stelle ein Stück weit auch beobachtet wird, um zu gucken, wie wird das denn

00:47:26.040 –> 00:47:30.920

eigentlich angenommen, bevor man dann eben auch gewisse Entscheidungen trifft in Bezug auf, ist

00:47:30.920 –> 00:47:35.120

der Mensch überhaupt denn schon so weit oder muss das anders gestaltet werden, um hier

00:47:35.120 –> 00:47:41.160

auch die Akzeptanz sozusagen zu erhalten, wenn man mit einem bestimmten Produkt zum

00:47:41.160 –> 00:47:44.200

beispiel jetzt zu diesem zeitpunkt auch auf den markt gehen würde.

00:47:44.200 –> 00:47:48.660

das heißt, diese marktforschung spielt hier doch auch in diesem technologischen kontext

00:47:48.660 –> 00:47:50.560

eine ganz, ganz wichtige Rolle.

00:47:50.560 –> 00:47:55.240

Und viele werden das vielleicht an der einen oder anderen Stelle auch erlebt haben oder

00:47:55.240 –> 00:47:56.240

mitbekommen haben.

00:47:56.240 –> 00:48:03.180

Gerade wenn neue Ideen kommen, zum Beispiel gerade wenn es darum geht, ein neues Produkt

00:48:03.180 –> 00:48:08.640

auf den markt zu bringen, was technologisch eine innovation darstellt, hat es auch etwas

00:48:08.640 –> 00:48:13.240

mit dem Zeitpunkt zu tun, ob die Menschheit “dafür” schon bereit ist.

00:48:13.240 –> 00:48:18.040

Das heißt, es kann sein, dass es eine gute Idee ist, etwas ist, was vielleicht in zehn

00:48:18.040 –> 00:48:23.440

Jahren angenommen wird, aber heute noch nicht der Bedarf erkannt wird oder die Akzeptanz

00:48:23.440 –> 00:48:27.420

eben noch nicht da ist und deswegen ein solches Produkt, wenn es zu früh auf den

00:48:27.420 –> 00:48:32.740

markt geführt wird, möglicherweise eben auch in der marktdurchdringung eben

00:48:32.740 –> 00:48:37.740

scheitert. Nicht, weil die Idee per se schlecht ist, sondern weil der Zeitpunkt

00:48:37.740 –> 00:48:43.000

in Anführungsstrichen für die Akzeptanz noch nicht reif ist. Und dafür

00:48:43.000 –> 00:48:47.140

gibt es viele, viele Beispiele in der Technologie, wo man das sehen kann und

00:48:47.140 –> 00:48:52.900

verfolgen kann, dass ja bestimmte Startups, sage ich jetzt mal, die

00:48:52.900 –> 00:48:56.780

die bestimmte produkte auf den markt gebracht haben oder ideen auf den markt gebracht haben,

00:48:56.780 –> 00:49:01.300

eben nicht angenommen wurden, aber dann einige Jahre später dann doch, vielleicht in einer

00:49:01.300 –> 00:49:05.220

leicht abgewandelten Form, aber es liegt da nicht an der abgewandelten Form an der Stelle,

00:49:05.220 –> 00:49:10.420

sondern häufig auch nur daran, dass das erste Start-up, was damit rausgegangen ist, quasi

00:49:10.420 –> 00:49:12.380

zu früh damit rausgegangen ist.

00:49:12.380 –> 00:49:16.300

Und das ist sehr, sehr spannend, das eben hier zu beobachten und zu sehen.

00:49:16.300 –> 00:49:20.260

Das heißt, auch hier kommen weitere Aspekte mit dazu, die es zu berücksichtigen gilt.

00:49:20.260 –> 00:49:26.580

also marktforschung an der stelle spielt eine wichtige rolle, eben wirklich auch zu gucken,

00:49:26.580 –> 00:49:27.580

wo stehen wir.

00:49:27.580 –> 00:49:31.100

Und hier haben wir dann auch diesen Aspekt mit drin, der Mensch.

00:49:31.100 –> 00:49:33.540

Und das ist halt ein Gap, der hier entsteht.

00:49:33.540 –> 00:49:39.100

Auf der einen Seite haben wir neuere Technologien, die in einer wahnsinnigen Geschwindigkeit

00:49:39.100 –> 00:49:41.980

voranschreiten, also was da eben auch möglich ist.

00:49:41.980 –> 00:49:49.420

Und auf der anderen Seite haben wir eben uns Menschen, die halt in Bezug auf Veränderungen

00:49:49.420 –> 00:49:54.620

gewissermaßen, wenn sie keinen Nutzen darin sehen oder Ähnliches, ja auch veränderungsresistent

00:49:54.620 –> 00:50:00.580

zunächst erst mal sind. Das heißt, hier auch Verhaltensänderungen, Einstellungen,

00:50:00.580 –> 00:50:06.100

Haltungen zu Themen und so weiter auch teilweise deutlich länger braucht, hier Veränderungen

00:50:06.100 –> 00:50:11.620

zu initiieren, als die Technologie, wenn wir uns die Geschwindigkeit der Entwicklung in

00:50:11.620 –> 00:50:17.700

der Technologie anschauen und das sozusagen ein Stück weit auch zusammenzuführen. Und

00:50:17.700 –> 00:50:22.540

wird dann aus meiner Sicht deutlich, dass es eben auch eine entsprechende Begleitung dessen braucht,

00:50:22.540 –> 00:50:29.900

weil das eben auch nicht von alleine funktioniert. Und dann wird deutlich aus meiner Sicht, dass es

00:50:29.900 –> 00:50:34.820

eben auch nicht die eine Lösung ist, sondern dass es hier verschiedene Komponenten sind,

00:50:34.820 –> 00:50:41.460

die man zusammenführen kann. Und entsprechend, wenn verschiedene Komponenten zusammengeführt

00:50:41.460 –> 00:50:47.460

werden, dann in der Gesamtheit betrachtet auch wieder eine Hebelwirkung entsteht. Also wir haben

00:50:47.460 –> 00:50:51.260

zum Beispiel, um deutlich zu machen, was ich damit sagen will, wir haben zum Beispiel vorhin

00:50:51.260 –> 00:50:56.860

von Storytelling gesprochen. Nur mit Storytelling oder ausschließlich mit Storytelling wird

00:50:56.860 –> 00:51:02.660

es nicht funktionieren. Aber wenn wir auf der anderen Seite Storytelling sinnvoll und

00:51:02.660 –> 00:51:06.220

clever nutzen, in Anführungsstrichen, auf welcher Ebene auch immer, auf verschiedenen

00:51:06.220 –> 00:51:12.980

Ebenen sehr gerne auch, dann ist das sozusagen eine Variante. Wenn auf der anderen Seite

00:51:12.980 –> 00:51:17.620

zum Beispiel Begleitung stattfindet, dann haben wir einen zweiten Weg.

00:51:17.620 –> 00:51:21.380

wenn marktforschung hinzugeführt wird, haben wir einen dritten weg.

00:51:21.380 –> 00:51:25.540

Und das nicht als losgelöste Wege, also jetzt können wir Punkt, Punkt, Punkt machen und

00:51:25.540 –> 00:51:27.180

ganz viele weitere Bereiche aufmachen.

00:51:27.180 –> 00:51:34.060

Und wenn wir diese Möglichkeiten nicht als einzelne losgelöste voneinander betrachten,

00:51:34.060 –> 00:51:40.100

sondern als Gesamtheit zusammenführen, dann bekommen wir aus meiner Sicht auch erst eine

00:51:40.100 –> 00:51:44.180

gewisse hebelwirkung im ergebnis. Marc, was sagst du denn dazu?

00:51:44.180 –> 00:51:48.200

Dann möchte ich zu, du hast gerade den Begriff Storytelling noch mal erwähnt,

00:51:48.200 –> 00:51:50.840

und dann möchte ich noch einen zweiten Begriff gegenüberstellen, weil das ist

00:51:50.840 –> 00:51:55.560

für mich die Praxis. Storytelling ist das eine, und da wir Menschen sind und

00:51:55.560 –> 00:51:58.800

mit anderen Menschen zu tun haben, ist Brandfeuertechnik die andere. Und

00:51:58.800 –> 00:52:01.920

Brandfeuertechnik ist die, in dem du sagst, ich habe vielleicht ein

00:52:01.920 –> 00:52:04.520

Elektromobil und das ist ja umweltfreundlich und ich einfach

00:52:04.520 –> 00:52:07.920

behaupte, naja, wie sieht es aus mit dem Recycling? Oder mir jemand sagt, ich habe

00:52:07.920 –> 00:52:12.240

in China eine Maschine gekauft, die ist ja viel billiger. Brandfeuertechnik wäre, wenn ich sage,

00:52:12.240 –> 00:52:15.600

naja, dann lass die mal reparieren. Da musst du aber ein paar Monate warten, bis du den Ersatz

00:52:15.600 –> 00:52:22.160

da hast. Und dann bin ich wieder beim Thema Bildung und Kommunikation, dass wir uns dieser

00:52:22.160 –> 00:52:26.920

Prozesse bewusst sind, wenn wir Menschen zuhören, ob das jetzt jemand ist, der ein Storytelling

00:52:26.920 –> 00:52:31.440

macht, weil er ein Produkt anpreisen will, dass wir prüfen, was hat das für mich für einen Vorteil,

00:52:31.440 –> 00:52:35.200

was hat das für die Gesellschaft für einen Vorteil. Genauso gut auf die Antworten zu achten,

00:52:35.200 –> 00:52:37.040

Ist das jetzt eine Brandfeuertechnik?

00:52:37.040 –> 00:52:38.680

Aus welcher Richtung kommt der?

00:52:38.680 –> 00:52:41.000

Haut der nur einfach irgendwelche Argumente raus?

00:52:41.000 –> 00:52:44.640

Und diese Brandfeuertechnik finde ich an mir auch selbst ziemlich bedenklich,

00:52:44.640 –> 00:52:47.280

weil sie ihren Effekt erzielt, weil sie Emotionen weckt.

00:52:47.280 –> 00:52:49.840

Und wenn ich die Fakten und Daten nicht prüfen kann,

00:52:49.840 –> 00:52:51.280

weil ich kein Spezialist bin,

00:52:51.280 –> 00:52:54.240

dann fehlen mir manchmal auf komplexe Themen wieder die Antwort.

00:52:54.240 –> 00:53:00.000

Ja, und da sind wir ja bei dem Punkt,

00:53:00.000 –> 00:53:02.560

dass wir auch festgestellt haben,

00:53:02.560 –> 00:53:04.840

bei vielen Themen ist es ja schon so,

00:53:04.920 –> 00:53:09.520

dass wir immer wieder auch selbst in die Prüfung hineingehen müssten,

00:53:09.520 –> 00:53:12.320

sozusagen unabhängig davon, ob wir Experten sind oder nicht.

00:53:12.320 –> 00:53:16.120

Also auch bei Nachrichten, die wir konsumieren,

00:53:16.120 –> 00:53:18.920

in Anführungsstrichen nicht nur zu konsumieren,

00:53:18.920 –> 00:53:21.120

sondern immer wieder auch die Quellen zu überprüfen,

00:53:21.120 –> 00:53:22.320

immer wieder auch reinzuschauen.

00:53:22.320 –> 00:53:25.120

Und das macht es natürlich auch nicht einfacher.

00:53:25.120 –> 00:53:28.720

Aber zumindest die Fähigkeit, und da sind wir ja auch wieder bei der,

00:53:28.720 –> 00:53:31.320

um diese Selbstwirksamkeit herzustellen,

00:53:31.320 –> 00:53:32.920

da sind wir wieder bei diesem Bildungsaspekt,

00:53:32.920 –> 00:53:38.880

eben zumindest erst mal auch erlernt zu haben, wie mache ich das denn überhaupt?

00:53:38.880 –> 00:53:45.920

Also überhaupt die Fähigkeit zu besitzen oder zu bekommen, in eine Prüfung zu gehen,

00:53:45.920 –> 00:53:50.800

wenn es denn etwas ist, wo ich das Gefühl habe, so jetzt habe ich das zwar irgendwo gelesen,

00:53:50.800 –> 00:53:56.040

aber was bedeutet das denn eigentlich? Und da wird deutlich, wie wichtig eben auch dieser

00:53:56.040 –> 00:53:59.720

Bildungskontext wieder an der Stelle ist, also Menschen auch dazu zu befähigen,

00:53:59.720 –> 00:54:05.480

überhaupt in die Lage versetzt zu werden, gewisse Dinge auch überprüfen zu können.

00:54:05.480 –> 00:54:11.200

Ob Sie das dann im Einzelfall für das einzelne Thema machen oder ob Sie das bei dem nächsten

00:54:11.200 –> 00:54:16.520

Thema wieder machen, das werden wir dann sozusagen nicht beeinflussen können an der Stelle,

00:54:16.520 –> 00:54:21.960

sondern das muss ja dann auch in der Eigenverantwortung liegen. Aber zumindest den Rahmen entsprechend

00:54:21.960 –> 00:54:27.040

zu setzen, dass eine entsprechende Überprüfung bis zu einem gewissen Grad, das bedeutet nicht,

00:54:27.040 –> 00:54:31.240

sich immer alles auflösen kann oder immer eine Antwort auf alles finden werde, aber

00:54:31.240 –> 00:54:36.160

in die Lage versetzt zu werden im Sinne der Selbstbestimmung und Selbstwirksamkeit und

00:54:36.160 –> 00:54:40.520

Selbstbestimmung auch nicht nur als Individuum gesehen, sondern auch als eine gemeinschaftlich

00:54:40.520 –> 00:54:45.440

gedachte Selbstbestimmung an der Stelle. Auch darüber hatten wir schon mal gesprochen,

00:54:45.440 –> 00:54:54.920

dass ich eben hier solche Rahmen sozusagen aufsetzen darf als Land, als Politik, als

00:54:54.920 –> 00:55:03.640

Bildungsorientierung, dass überhaupt erst mal die Möglichkeit schafft, dass das überhaupt

00:55:03.640 –> 00:55:05.800

auch machbar wird.

00:55:05.800 –> 00:55:09.360

Sonst habe ich nur die Brandfeuertechnik.

00:55:09.360 –> 00:55:13.120

Die wird übrigens auch nicht vermieden werden, die wird es trotzdem irgendwo geben.

00:55:13.120 –> 00:55:19.400

Aber wie der Umgang des Menschen damit ist, ob ich einfach das konsumiere und darauf emotional

00:55:19.400 –> 00:55:26.520

reagiere oder ob ich eben auf eine Art und Weise begleitet wurde, die mir ermöglicht,

00:55:26.520 –> 00:55:31.640

sozusagen hier kritisch zu hinterfragen, kritisch drauf zu blicken, ein gewisses Verständnis

00:55:31.640 –> 00:55:36.640

für zu haben, in die Recherche einzusteigen und zu wissen, wie kann ich denn hier überhaupt

00:55:36.640 –> 00:55:39.080

recherchieren und so weiter.

00:55:39.080 –> 00:55:44.160

Diesen Rahmen meine ich, dass der zunächst erst mal auch eröffnet werden darf und muss

00:55:44.160 –> 00:55:47.920

an der Stelle, weil ich das sonst gar nicht damit umgehen kann.

00:55:47.920 –> 00:55:50.320

Marc, magst du da nochmal anschließen?

00:55:50.320 –> 00:55:53.400

Beziehungsweise dann können wir auch mit Blick auf die Zeit gerne auch schon

00:55:53.400 –> 00:55:56.600

das Abschlusswort mit aufgreifen.

00:55:56.600 –> 00:56:00.920

Ja, mein Abschlusswort ist, dass ich total gespannt und neugierig

00:56:00.920 –> 00:56:04.360

in die Zukunft schaue und jeder, der in der Familie oder im Freundeskreis

00:56:04.360 –> 00:56:07.480

mit Krebs zu tun hat, also meine Einstellung ist, dass ich denke,

00:56:07.480 –> 00:56:10.800

dass in der Medizin, dass es unglaubliche Fortschritte geben wird in der Behandlung.

00:56:10.800 –> 00:56:14.720

Sachen, an die ich mir noch nicht in meinen kühnsten Träumen vorstellen kann.

00:56:14.720 –> 00:56:16.680

Das wünsche ich mir für mich persönlich.

00:56:16.680 –> 00:56:21.560

für Marc hätte das einen größeren Mehrwert, wenn ich weiß, dass niemand mehr sein Kind

00:56:21.560 –> 00:56:26.400

verliert oder sein Partner an Krebs als ein Roboter, der mir einen Kaffee bringt.

00:56:26.400 –> 00:56:29.680

Solange ich beweglich bin, hole ich mir meinen Kaffee sehr, sehr gerne noch selber.

00:56:29.680 –> 00:56:32.960

Ja, vielen, vielen lieben Dank.

00:56:32.960 –> 00:56:37.680

Und hier macht es ja auch nochmal deutlich, dass eben alles in Anführungsstrichen,

00:56:37.680 –> 00:56:41.040

genauso wie es Nachteile mit sich bringt, eben auch Vorteile hat.

00:56:41.040 –> 00:56:47.100

Und dadurch, dass wir vom Gehirn her in Anführungsstrichen ja vor dem

00:56:47.100 –> 00:56:51.860

Hintergrund der Existenzsicherung sozusagen oder automatisch in die

00:56:51.860 –> 00:56:57.720

Richtung denken, was in welchen Bezügen, in welchem Kontext bedroht mich

00:56:57.720 –> 00:57:01.980

etwas, ist eine ganz menschliche Reaktion. Und deswegen immer wieder auch ganz

00:57:01.980 –> 00:57:06.160

bewusst eben die Chancen nicht auszublenden, auf der einen Seite auf die

00:57:06.160 –> 00:57:11.320

Chancen zu schauen, um unseren Fokus auch darauf zu legen und gleichzeitig eben

00:57:11.320 –> 00:57:16.140

aber auch berechtigte Sorgen in Anführungsstrichen nicht einfach weg zu

00:57:16.140 –> 00:57:20.600

fegen oder weg zu wischen, sondern hier auch eben verantwortungsvoll drauf zu

00:57:20.600 –> 00:57:26.160

blicken und zu gucken, wie kann man denn hier auch Lösungen finden, wohl wissend,

00:57:26.160 –> 00:57:29.880

dass es keine abschließende Lösung sein wird. Das heißt, das Thema, die

00:57:29.880 –> 00:57:36.560

Themengebiete und auch Ethik letztendlich ist an der Stelle komplex und wir werden

00:57:36.560 –> 00:57:43.720

die Komplexität weder durch Regulierung oder sonstiges einfach sozusagen

00:57:43.720 –> 00:57:48.240

runterschrauben können, also eine gewisse Komplexität bleibt. Deswegen ist es

00:57:48.240 –> 00:57:54.040

erforderlich, hier auch immer wieder in Anführungsstrichen agil zu sein und ja,

00:57:54.040 –> 00:58:00.400

neue Themen aufzugreifen, möglicherweise auch schnell aufzugreifen, dann auf der

00:58:00.400 –> 00:58:06.000

einen Seite Raum für Diskurse zu geben, aber dann auch nicht bis ins Unendliche

00:58:06.000 –> 00:58:11.040

zu diskutieren, sondern hier eben auch Entscheidungen zu treffen,

00:58:11.040 –> 00:58:14.840

wohl wissend, dass es keine abschließende Entscheidung sein wird,

00:58:14.840 –> 00:58:19.120

sondern dass es hier eben dann auch entsprechend wieder kritisch zu

00:58:19.120 –> 00:58:25.060

hinterfragen ist regelmäßig und eben auch wieder Anpassungen erforderlich

00:58:25.060 –> 00:58:32.140

werden und das ist eben insofern dieser Komplexität auch zu versuchen,

00:58:32.140 –> 00:58:37.180

ein Stück weit durch den Umgang damit auch gerecht zu werden. Also ich denke,

00:58:37.180 –> 00:58:41.740

das sind ganz viele Aspekte, die hier heute zusammengekommen sind und ich bin

00:58:41.740 –> 00:58:45.020

mal gespannt, wie es dann morgen weitergeht. Da gucken wir uns noch mal

00:58:45.020 –> 00:58:53.180

einen Bereich an, und zwar Kunst und Kultur und schauen uns an, wie verändern Technologien

00:58:53.180 –> 00:58:59.620

auch den Bereich Kunst und Kultur. Auch hier passiert einiges und wird auch relativ deutlich

00:58:59.620 –> 00:59:05.340

machen, dass es auch viel mit Haltung, Denke zu tun hat, unabhängig davon, ob wir selbst

00:59:05.340 –> 00:59:11.260

aus Kunst und Kultur kommen oder ob wir zu den Personen gehören, die eine gewisse Vorstellung

00:59:11.260 –> 00:59:16.260

von Kunst und Kultur an der Stelle haben und auch die Einflüsse von Technologien, die

00:59:16.260 –> 00:59:21.940

hier jetzt das eine oder andere verändern, wo durchaus auch sehr interessante Diskussionen

00:59:21.940 –> 00:59:27.000

aufkommen. Und da bin ich total gespannt, mit euch gemeinsam auf diesen Bereich morgen

00:59:27.000 –> 00:59:31.180

noch mal zu schauen. Insofern seid ihr ganz, ganz herzlich eingeladen, morgen um 8 Uhr

00:59:31.180 –> 00:59:36.940

wieder mit dabei zu sein und in diesen Austausch einzusteigen mit dem Raumtitel “Technologien

00:59:36.940 –> 00:59:42.700

Kunst und Kultur mit der Fragestellung “Wie verändern Technologien Kunst und Kultur?” hier

00:59:42.700 –> 00:59:47.900

gemeinsam in die Reflexion einzusteigen und mal zu schauen, in welche Richtung sich der Raum dann

00:59:47.900 –> 00:59:52.660

gemeinsam auch entwickelt. In diesem Sinne vielen, vielen lieben Dank fürs Mitmachen, für die tollen

00:59:52.660 –> 00:59:57.220

Beiträge, für die tollen Beispiele, die wirklich auch diese Komplexität heute aufgemacht haben,

00:59:57.220 –> 01:00:03.700

da gezeigt haben, wie schwierig es hier auch ist, wirklich Lösungen zu finden. Und ja, ich wünsche

01:00:03.700 –> 01:00:08.940

euch einen wundervollen Tag und freue mich auf morgen. In diesem Sinne bis dahin. Ciao.

3 Myths Debunked – When Science Creates Knowledge! | Dr Yasemin Yazan

When Science Creates Knowledge!

Unfortunately, there is a lot of false knowledge on the market. Be it because, for example, research results are misinterpreted or false causalities are made, or because they are transferred to other contexts that were not even the subject of the study.

We pick 3 myths and show what science already knows:

- Why Maslow's hierarchy of needs is not a reliable basis for motivation

- Why personality tests are questionable as a basis for personnel decisions

- Why a quota is needed as an effective measure against Unconscious Bias

Data Protection Declaration

Declaration Of Consent

Congratulations - your download is waiting for you in your mailbox!