Gehirnfutter f├╝r Pioniergeister: Wie kann ein ethisch verantwortungsvoller Einsatz neuer Technologien aussehen? Das ist die Fragestellung mit der wir uns in Raum #879 des Deep Talk Clubs unter dem Dachthema „Pioniergeist mit Hirn“ befassen. H├Âre selbst, welche Beispiele aufgegriffen wurden und welche Perspektiven im Dialog entstanden sind…

Transkription: ­čçę­č笭čçĘ­čçş­č玭čç╣ #879 Ethik & Technologien | Von Dr. Yasemin Yazan

00:00:00.000 –> 00:00:04.000

Einen wundersch├Ânen guten Morgen w├╝nsche ich.

00:00:04.000 –> 00:00:08.000

Ja, wir sprechen heute ├╝ber Ethik und Technologien.

00:00:08.000 –> 00:00:12.000

Und wir haben ja in den vergangenen Tagen, Wochen

00:00:12.000 –> 00:00:16.000

verschiedene Bereiche unter dem Dach Pioniergeist mit Hirn

00:00:16.000 –> 00:00:20.000

aufgemacht und uns verschiedene Technologien auch angesehen.

00:00:20.000 –> 00:00:24.000

Und heute m├Âchte ich gerne mal

00:00:24.000 –> 00:00:28.000

mit euch diesen ethischen Aspekt aufgreifen im Zusammenhang mit den

00:00:28.000 –> 00:00:33.360

Technologien, wie kann ein ethisch verantwortungsvoller Einsatz neuer

00:00:33.360 –> 00:00:37.920

Technologien aussehen? Darum soll es heute gemeinsam gehen. Das hei├čt, wir

00:00:37.920 –> 00:00:42.520

haben ja festgestellt, ob das jetzt Technologien sind oder andere Themen.

00:00:42.520 –> 00:00:47.840

Immer wieder kommen wir darauf zur├╝ck, dass wir feststellen, im Grunde genommen

00:00:47.840 –> 00:00:53.240

ist es in diesem Fall jetzt nicht die Technologie, die per se gut oder schlecht

00:00:53.240 –> 00:00:57.880

ist, sondern hat ja auch sehr viel damit zu tun, wie das eben von Menschen

00:00:57.880 –> 00:01:04.000

auch genutzt oder eingesetzt wird. Das hei├čt, da gibt es nat├╝rlich auch M├Âglichkeiten des

00:01:04.000 –> 00:01:10.600

Missbrauchs etc. Und dementsprechend macht es auch mal Sinn, gemeinsam dar├╝ber nachzudenken

00:01:10.600 –> 00:01:16.600

oder auch in den Austausch zu kommen, um mal zu ├╝berlegen, wie lie├če sich denn das eine oder

00:01:16.600 –> 00:01:25.760

andere eben auch vielleicht, wei├č ich nicht, Regulierungen, waren ja zum einen so Aspekte,

00:01:25.760 –> 00:01:31.600

die immer wieder auch aufgekommen sind. Aber m├Âglicherweise gibt es eben nicht nur das

00:01:31.600 –> 00:01:35.880

Regulieren von au├čen, von einer zentralen Stelle, sondern vielleicht gibt es auch andere Alternativen.

00:01:35.880 –> 00:01:42.760

Also hier mal zu gucken, welche M├Âglichkeiten gibt es denn hier im Kontext mit der ethischen

00:01:42.760 –> 00:01:51.320

Betrachtung, um das eine oder andere in die positive Richtung zu lenken, in Anf├╝hrungsstrichen

00:01:51.320 –> 00:01:56.160

beziehungsweise sicherzustellen, kann man es ├╝berhaupt sicherstellen, dass es eben

00:01:56.160 –> 00:02:00.600

keinen Missbrauch gibt oder weniger Missbrauch gibt, um das vielleicht auch

00:02:00.600 –> 00:02:04.200

noch ein bisschen einzugrenzen und nicht ganz extrem zu formulieren.

00:02:04.200 –> 00:02:07.680

Genau und in diesem Sinne seid ihr ganz ganz herzlich eingeladen, heute auch

00:02:07.680 –> 00:02:12.280

wieder mit dazu zu kommen und ja lasst uns einfach mal erste Impulse

00:02:12.280 –> 00:02:16.640

zusammenf├╝hren, aufgreifen. Vielleicht gibt es ja auch irgendwelche Beispiele, an

00:02:16.640 –> 00:02:19.840

denen man eben auch hier Vergleiche aufmachen kann und sagen kann, hier

00:02:19.840 –> 00:02:24.860

k├Ânnen diese sich ja das eine oder andere vielleicht auch ├╝bertragen, also im Sinne von

00:02:24.860 –> 00:02:29.920

transferieren, adaptieren oder ├Ąhnliches, also dass wir einfach mal verschiedene Gedanken und

00:02:29.920 –> 00:02:36.040

Impulse aufgreifen. Und denkt bitte daran, auch heute, der Raum wird ├╝ber die gesamte Zeit

00:02:36.040 –> 00:02:41.240

aufgezeichnet. Wer mit dazu kommt, ist automatisch damit einverstanden, dass das sp├Ąter auch

00:02:41.240 –> 00:02:46.520

ver├Âffentlicht wird. Und wir haben drei kleine Raumregeln. Einmal ein Profilfoto, auf dem ihr

00:02:46.520 –> 00:02:50.040

klar zu erkennen seit vor und nach Namen und mindestens Einsatz in der Bio.

00:02:50.040 –> 00:02:53.360

Wer das aus irgendwelchen Gr├╝nden nicht m├Âchte, ist herzlich eingeladen, einfach

00:02:53.360 –> 00:02:58.680

den Chat zu nutzen, hier verschiedene Gedanken, Fragen oder Impulse mit reinzugeben,

00:02:58.680 –> 00:03:02.800

sodass wir es dann im Laufe des Raumes dann auch mit aufgreifen k├Ânnen.

00:03:02.800 –> 00:03:05.680

Ja, und damit m├Âchte ich dann gerne auch

00:03:05.680 –> 00:03:08.200

Marc an meiner Seite begr├╝├čen.

00:03:08.200 –> 00:03:09.880

Einen wundersch├Ânen guten Morgen, lieber Marc.

00:03:09.880 –> 00:03:12.400

Was sagst du denn zu dem Thema?

00:03:12.400 –> 00:03:15.640

Guten Morgen in die Runde und einen guten Wochenstart f├╝r alle.

00:03:16.120 –> 00:03:20.440

Ich kn├╝pfe mal an das Autorenvorst├╝ck am Sonntag, Storytelling,

00:03:20.440 –> 00:03:22.480

und ich lade euch auf ein Gedankenspiel an.

00:03:22.480 –> 00:03:26.040

Mein Thema ist Gentechnologie, und der Marc ist jetzt Politiker.

00:03:26.040 –> 00:03:28.280

Und ich wei├č, dass alle neuen Technologien,

00:03:28.280 –> 00:03:31.840

eben auch die Gentechnologie, bei den einen Menschen ├ängste ausl├Âsen,

00:03:31.840 –> 00:03:34.240

und bei den anderen Menschen, naja, Hoffnung.

00:03:34.240 –> 00:03:36.320

Und wie du schon gesagt hast, positive Aspekte.

00:03:36.320 –> 00:03:40.520

Und ich m├Âchte das jetzt mal als negatives Moment nutzen,

00:03:40.520 –> 00:03:43.520

indem ich sage, oh, gentechnisch, ich wei├č, viele Menschen haben Angst.

00:03:43.680 –> 00:03:46.840

Und ich w├╝rde meine Wahl jetzt, wenn ich es negativ nutzen w├╝rde,

00:03:46.840 –> 00:03:51.480

so nutzen, dass ich sagen w├╝rde, in China, Leute, da nutzen die Gentechnik ein f├╝r Babys.

00:03:51.480 –> 00:03:53.960

Um Gottes Willen, wird ja der eine oder andere sagen.

00:03:53.960 –> 00:03:56.120

Ja. Und wisst ihr, was man damit machen kann?

00:03:56.120 –> 00:03:59.520

Das hei├čt, Eltern bestimmen in Zukunft, ob die Augen vom Baby blau werden,

00:03:59.520 –> 00:04:01.560

ob es blonde Haare hat und und und.

00:04:01.560 –> 00:04:03.560

Und wenn ihr mich w├Ąhlt, bin ich absolut dagegen.

00:04:03.560 –> 00:04:05.160

Nee, das kann ich nachvollziehen.

00:04:05.160 –> 00:04:07.120

Sind wir auch. Finde ich gut, dass du dich da einsetzt.

00:04:07.120 –> 00:04:10.600

Und das Spannende ist dann, ich habe die Fakten total verdreht.

00:04:10.600 –> 00:04:12.560

In China setzt man Gentechnik ein.

00:04:12.600 –> 00:04:15.200

Ja, was da gemacht worden ist vor drei Jahren.

00:04:15.200 –> 00:04:18.800

Man hat mit der CRISPR-Technologie drei M├Ądchen…

00:04:18.800 –> 00:04:22.520

Also man hat das gentechnisch behandelt, die Embryos.

00:04:22.520 –> 00:04:25.440

Und der Hintergrund dessen war aber nicht,

00:04:25.440 –> 00:04:27.840

dass die jetzt blaue Haare haben oder blaue Augen.

00:04:27.840 –> 00:04:30.680

Sondern der Hintergrund war durch eine Keimbehandlung

00:04:30.680 –> 00:04:33.320

ein Versuch zu starten, ob die drei M├Ądchen…

00:04:33.320 –> 00:04:36.360

In Zukunft, AIDS ist ja immer noch eine Krankheit, die da ist.

00:04:36.360 –> 00:04:39.240

Man stirbt zwar nicht sofort, man kann damit auch sehr lange leben.

00:04:39.400 –> 00:04:41.320

Trotzdem ist es eine gef├Ąhrliche Krankheit.

00:04:41.320 –> 00:04:45.160

Und der Hintergrund war einfach da, dass die Wissenschaftler gesagt haben

00:04:45.160 –> 00:04:47.080

und die Eltern sich dann auch entschieden haben,

00:04:47.080 –> 00:04:50.800

wenn ich mein Kind sch├╝tzen kann in Zukunft vor einer t├Âdlichen Krankheit,

00:04:50.800 –> 00:04:53.400

das hei├čt, keiner, kein Elternteil m├Âchte,

00:04:53.400 –> 00:04:55.800

dass ein Kind stirbt und dass dem ein Leid geschieht.

00:04:55.800 –> 00:04:57.920

Und wenn ich die Geschichte jetzt so verkaufe und sage,

00:04:57.920 –> 00:04:59.720

hey, mit dieser Gentechnologie,

00:04:59.720 –> 00:05:02.240

da kannst du sicherstellen, dass dein Kind vielleicht mal

00:05:02.240 –> 00:05:07.000

nicht an dem Krebs stirbt und vielleicht nicht an HIV erkrankt wird,

00:05:07.000 –> 00:05:08.680

dann wird man wahrscheinlich fiefi,

00:05:08.840 –> 00:05:12.240

dann hat man eine ganz, ganz andere Reaktion auf diese Technologie,

00:05:12.240 –> 00:05:15.000

je nachdem, welche Fakten man wegl├Ąsst und je nachdem,

00:05:15.000 –> 00:05:16.600

welche Story man dazu erz├Ąhlt.

00:05:16.600 –> 00:05:18.080

Das w├Ąre jetzt erstmal mal ein Einstieg.

00:05:18.080 –> 00:05:22.120

Ja, wunderbar. Vielen, vielen lieben Dank.

00:05:22.120 –> 00:05:26.040

Das hei├čt hier tats├Ąchlich das Storytelling entsprechend zu nutzen,

00:05:26.040 –> 00:05:31.920

um zu gucken, ob da eben Ängste geschürt werden,

00:05:31.920 –> 00:05:35.200

in Anf├╝hrungsstrichen, oder auch Zuversicht geschaffen wird.

00:05:35.200 –> 00:05:37.160

Nat├╝rlich k├Ânnte es dann trotzdem sein,

00:05:37.160 –> 00:05:41.720

dass es eben Menschen gibt, die das ethisch zum Beispiel bedenklich finden,

00:05:41.720 –> 00:05:45.200

dadurch, dass es hier eben um Gentechnologie geht und so weiter. Das

00:05:45.200 –> 00:05:49.280

hei├čt, man w├╝rde jetzt bei diesem konkreten Beispiel dadurch das nicht

00:05:49.280 –> 00:05:53.040

komplett aushebeln, sondern hier w├╝rden auch andere Diskussionen noch mal in

00:05:53.040 –> 00:05:57.080

diesem Zusammenhang entstehen, mit Sicherheit. Und dennoch ist das aber ein

00:05:57.080 –> 00:06:00.680

sch├Ânes Beispiel, um eben aufzuzeigen, dass es sehr unterschiedlich auch

00:06:00.680 –> 00:06:05.360

gelenkt werden kann an der Stelle. Die Frage ist allerdings in diesem

00:06:05.360 –> 00:06:11.520

Zusammenhang mit dem Storytelling. Wir hatten ja auch R├Ąume gemacht, in denen wir festgestellt

00:06:11.520 –> 00:06:19.240

haben, dass zum Beispiel Medien ja eben gerade deswegen aber auch bestimmte zum Beispiel

00:06:19.240 –> 00:06:27.080

angstsch├╝rende Sachen aufgreifen oder ja eben wegen der Klicks, um die es geht, eben

00:06:27.080 –> 00:06:33.160

entsprechende ├ťberschriften ausw├Ąhlen und so weiter, weil der Mensch ja schon dazu auch

00:06:33.160 –> 00:06:40.160

neigt, eben entsprechend darauf zu reagieren. Das hei├čt, in dem Moment, wo wir die M├Âglichkeit

00:06:40.160 –> 00:06:43.960

haben sozusagen mehr Klicks zu generieren oder ├Ąhnliches, und auch das hat eben eine

00:06:43.960 –> 00:06:49.760

Relevanz jetzt zum Beispiel im Zusammenhang von Medien. Also reicht das denn aus, dass

00:06:49.760 –> 00:06:56.880

man hier quasi diesen Ansatz hat, ich nutze beispielsweise Storytelling positiv, um Zuversicht

00:06:56.880 –> 00:07:01.040

und Neugierig zu machen und ├Ąhnliches, weil das w├╝rde ja auch bedeuten, dass an der einen

00:07:01.040 –> 00:07:09.040

oder anderen Stelle eben ja ein v├Âllig, v├Âllig anderer Ansatz pl├Âtzlich gew├Ąhlt werden w├╝rde.

00:07:09.040 –> 00:07:12.960

Wir hatten ja auch mal dar├╝ber gesprochen, dass es sowas wie positive Nachrichten zum

00:07:12.960 –> 00:07:16.720

Beispiel auf Social Media Kan├Ąlen oder so gibt, die durch die Decke auch geschossen

00:07:16.720 –> 00:07:21.120

sind, weil Menschen eben es leid waren, in Anf├╝hrungsstrichen immer nur oder fast ausschlie├člich

00:07:21.120 –> 00:07:25.800

negativ Nachrichten in den Medien zu lesen und haben hier eine eigene Initiative, aus

00:07:25.800 –> 00:07:28.000

eigener Initiative eben etwas gegr├╝ndet.

00:07:28.000 –> 00:07:33.560

Das funktioniert zwar auch ganz gut, aber das ist eben nur ein bestimmter Teil von Menschen,

00:07:33.560 –> 00:07:38.000

die das f├╝r sich nutzen oder die hier das cool finden und dem auch folgen.

00:07:38.000 –> 00:07:40.080

Andere haben das vielleicht gar nicht mitbekommen.

00:07:40.080 –> 00:07:45.960

Aber Storytelling ist ja nichts, gerade wenn wir in Richtung Medien gucken, wie lie├če

00:07:45.960 –> 00:07:50.160

sich denn sowas eben auch beeinflussen, in Anf├╝hrungsstrichen, dass hier nicht nach

00:07:50.160 –> 00:07:56.040

Klicks oder sonstigem agiert wird, um eben hier auch die eigene Finanzierung, sage ich

00:07:56.040 –> 00:08:00.720

jetzt mal sicherzustellen, die Reichweite sicherzustellen und so weiter und so fort,

00:08:00.720 –> 00:08:04.400

sondern eben auch hier in eine bestimmte Richtung auch zu lenken.

00:08:04.400 –> 00:08:06.960

Also das f├Ąnde ich auch nochmal so eine ganz spannende Frage.

00:08:06.960 –> 00:08:10.440

Das hei├čt, mit Storytelling kann man mit Sicherheit einiges erreichen.

00:08:10.440 –> 00:08:16.360

Einen Gleichklang hier hinzubekommen, dass es eher in die positive Richtung auch berichtet

00:08:16.360 –> 00:08:18.200

wird, gerade in den Medien.

00:08:18.200 –> 00:08:24.320

Da stellt sich die Frage, geht das ├╝berhaupt oder ist das einfach nur eine utopisch hoffnungsvoll

00:08:24.320 –> 00:08:32.480

vorgestellter Gedanke. Das f├Ąnde ich mal ganz spannend zu betrachten. Und wir hatten ja gestern

00:08:32.480 –> 00:08:37.400

auch schon dar├╝ber gesprochen, dass eben Storytelling auch gerade so, ja auch im politischen

00:08:37.400 –> 00:08:42.920

Kontext oder so anders eben auch eingesetzt werden k├Ânnte, um nicht irgendwie nur dar├╝ber zu

00:08:42.920 –> 00:08:49.120

diskutieren, was die Menschheit irgendwie machen m├╝sste oder sollte oder wie auch immer, sondern

00:08:49.120 –> 00:08:56.120

eben hier auch Lust zu sch├╝ren sozusagen oder Neugier zu sch├╝ren, mit Zuversicht auf

00:08:56.120 –> 00:08:57.880

gewisse Dinge zu schauen.

00:08:57.880 –> 00:09:02.400

Wobei nat├╝rlich auch hier trotzdem nochmal die Frage gestellt werden m├╝sste, ist es

00:09:02.400 –> 00:09:06.480

bei bestimmten Sachen ├╝berhaupt die Aufgabe der Politik, sich in Anf├╝hrungsstrichen hier

00:09:06.480 –> 00:09:07.480

einzumischen.

00:09:07.480 –> 00:09:11.240

Marc, magst du nochmal andocken an der Stelle bei meinen Gedanken?

00:09:11.240 –> 00:09:12.240

Ja, zwei Sachen.

00:09:12.240 –> 00:09:14.760

Das haben wir ja gerade aktuell mit der Politik.

00:09:14.760 –> 00:09:15.760

Das ist ein heikles Thema.

00:09:15.760 –> 00:09:19.120

Ich finde ja, die Politik hat die Aufgabe und ich komme immer wieder darauf zur├╝ck,

00:09:19.120 –> 00:09:24.000

Bildung und Aufkl├Ąrung. Und nur am Rande das Heizthema. Ich kann euch jetzt alle im Raum

00:09:24.000 –> 00:09:29.440

fragen, wer von euch ist f├╝r Umweltschutz? Dann gehen alle Finger hoch. Ich bin bestimmt der

00:09:29.440 –> 00:09:32.920

Meinung, dass 99 Prozent der Finger hochgehen, wenn man sagt, wer ist f├╝r ein gutes Klima?

00:09:32.920 –> 00:09:37.200

Wenn ich dann aber die Frage umdrehe und sage, ich bestimme in Zukunft, mit was du heizt,

00:09:37.200 –> 00:09:40.480

weil ich das vorgebe, weil du keine Ahnung hast und ich einfach die Ahnung habe,

00:09:40.480 –> 00:09:45.720

dann sprechen wir ├╝ber das gleiche Thema. Ich habe aber nicht aufgekl├Ąrt den Hintergrund,

00:09:45.720 –> 00:09:50.880

und und und und und das kann ich quasi mit jedem Thema so machen. Und Ethik und Technik, da habe

00:09:50.880 –> 00:09:54.240

ich auch noch ein Beispiel mitgebracht. Wir haben ja alle, das Automobil gibt es ja jetzt schon

00:09:54.240 –> 00:09:59.440

l├Ąngeren Zeitraum und wenn ich mich erinnere, das allererste Auto, was ich gehabt habe, mit dem bin

00:09:59.440 –> 00:10:03.640

ich gefahren und ich bin damit ziemlich gut durch die Nacht gekommen. Das hei├čt, das Licht ist heute

00:10:03.640 –> 00:10:07.480

besser, aber es hat mir gereicht durch die Nacht zu kommen. Damals hatte man noch Lampen und Lichter.

00:10:07.480 –> 00:10:12.120

Das bedeutet, wenn eine Lampe kaputt gegangen ist, bin ich zu einem Autoh├Ąndler gegangen und

00:10:12.120 –> 00:10:16.140

sagt, meine birne ist kaputt, dann sagte er vier mark oder vier, f├╝nf euro, dann hatte ich wieder

00:10:16.140 –> 00:10:20.400

Licht. Heute spricht man von Leuchteinheiten. Diese Leuchteinheiten haben nat├╝rlich auch,

00:10:20.400 –> 00:10:24.240

technisch haben die sich weiterentwickelt, es gibt Laserlicht, ganz ganz tolle Sachen,

00:10:24.240 –> 00:10:28.520

hat nat├╝rlich auch den Nachteil, dass man nichts mehr auswechseln kann. Und ich werde das nie

00:10:28.520 –> 00:10:33.320

vergessen, wie ich mal auf einer Messe war und mit jemandem im Auto sa├č, der in der Automobilindustrie

00:10:33.320 –> 00:10:37.200

gearbeitet hat und mir gesagt hat, naja, diese Leuchteinheiten sind nat├╝rlich auch, das ist

00:10:37.200 –> 00:10:41.760

ein technischer Fortschritt, aber gleichzeitig k├Ânnen wir damit auch mehr Geld verdienen.

00:10:41.760 –> 00:10:47.640

Denn wer schon mal eine Leuchteinheit f├╝rs Auto gekauft hat, wei├č, dass er mit 5, 6 Euro nicht mehr dabei ist,

00:10:47.640 –> 00:10:50.760

sondern mit 6 bis 7 oder 800 Euro, je nach Modell.

00:10:50.760 –> 00:10:52.760

Es ist ein technischer Fortschritt, ja.

00:10:52.760 –> 00:10:57.240

Diese technische Entwicklung hat aber auch dazu gef├╝hrt, mehr Geld zu generieren,

00:10:57.240 –> 00:10:59.720

weil ich die Ger├Ąte nicht mehr reparieren kann.

00:10:59.720 –> 00:11:04.640

Und im Zusammenhang mit Ethik und Technik, wir entwickeln uns technisch alle weiter,

00:11:04.640 –> 00:11:06.640

also mit den Smartphones, mit den Fernsehger├Ąten.

00:11:06.640 –> 00:11:10.960

Gleichzeitig hat aber die Industrie ein gro├čes Interesse, dass Ger├Ąte nicht repariert werden,

00:11:10.960 –> 00:11:14.160

weil ein neues Ger├Ąt mehr Geld bringt als eine Reparatur.

00:11:14.160 –> 00:11:20.040

Ja, vielen, vielen lieben Dank.

00:11:20.040 –> 00:11:22.760

Und hier stellt sich ja auch nochmal,

00:11:22.760 –> 00:11:25.360

weil du jetzt auch Bildung und so was mit aufgegriffen hast,

00:11:25.360 –> 00:11:28.800

auch die Fragestellung, da ist direkt bei mir der n├Ąchste Impuls aufgekommen,

00:11:28.800 –> 00:11:32.880

ja, auf verschiedenen Ebenen eben auch zu gucken, weil Storytelling

00:11:32.880 –> 00:11:36.240

ist ja dann zum Beispiel eine M├Âglichkeit

00:11:36.240 –> 00:11:38.320

auf der auf der einen Seite.

00:11:38.320 –> 00:11:42.280

Es gibt verschiedene M├Âglichkeiten, auch in Bezug auf Bildung, wenn wir diesen Bildungsbegriff

00:11:42.280 –> 00:11:43.800

nochmal aufgreifen.

00:11:43.800 –> 00:11:49.200

Da geht es ja um das Thema Selbstbestimmung und Selbstorganisation, Selbstwirksamkeit.

00:11:49.200 –> 00:11:56.160

Das hei├čt hier auch in eine gewisse Form der Begleitung reinzugehen, sprich ja nicht

00:11:56.160 –> 00:12:00.160

erst am Ende in Anf├╝hrungsstrichen irgendwo anzudocken, sondern eben auch, wenn wir zum

00:12:00.160 –> 00:12:03.840

Beispiel sehen, dass gerade jetzt Entwicklungen da sind und die sind ja nicht erst seit gestern

00:12:03.840 –> 00:12:04.840

da.

00:12:04.840 –> 00:12:07.240

Also gerade wenn wir so etwas wie Internet oder so etwas sehen, da lie├č sich ja auch

00:12:07.240 –> 00:12:12.040

schon in der Vergangenheit sehr, sehr viel abzeichnen, was da alles sich entwickelt,

00:12:12.040 –> 00:12:16.520

was da alles in Anf├╝hrungsstrichen kommt. Und ├╝ber die Zeit hinweg betrachtet, kommen

00:12:16.520 –> 00:12:22.120

ja immer weitere Aspekte auch hinzu. Das hei├čt, hier w├Ąre es ja zum Beispiel auch logisch

00:12:22.120 –> 00:12:28.840

und notwendig, gerade wenn wir auch so Diskussionen jetzt gerade, ich meine, bestimmte Bereiche,

00:12:28.840 –> 00:12:33.540

da hat man vielleicht nicht so den Einblick, da kennt sich vielleicht nicht jeder aus,

00:12:33.540 –> 00:12:38.540

in Anf├╝hrungsstrichen. Allerdings so Sachen wie jetzt zum Beispiel KI und die

00:12:38.540 –> 00:12:43.180

Chat GPT und sowas, das ist ja schon etwas, was wirklich in aller Munde auch

00:12:43.180 –> 00:12:46.980

angekommen ist. Das hei├čt ja auch in Schulen etc. oder von Lehrern auch

00:12:46.980 –> 00:12:51.380

diskutiert wird. Dementsprechend hier eben auch Ethik und Technologie auf die

00:12:51.380 –> 00:12:55.820

Art und Weise zu denken, eben hier relativ fr├╝h an der Schule zum Beispiel

00:12:55.820 –> 00:13:01.300

auch oder Kita-Schule und ├╝berall weiterf├╝hrend eben das Thema auch

00:13:01.300 –> 00:13:05.260

aufzugreifen und hier in eine Art

00:13:05.260 –> 00:13:07.100

Begleitung zu gehen und diese

00:13:07.100 –> 00:13:09.340

Kombination Ethik und

00:13:09.340 –> 00:13:12.900

Technologien eben aufzugreifen und hier

00:13:12.900 –> 00:13:15.220

dar├╝ber auch auf die auf eine

00:13:15.220 –> 00:13:17.500

entsprechende Art und Weise sozusagen

00:13:17.500 –> 00:13:21.420

sich an dieser Themen auch anzun├Ąhern,

00:13:21.420 –> 00:13:23.380

um ein Bewusstsein f├╝r die

00:13:23.380 –> 00:13:26.540

„ethische Nutzung“ auch

00:13:26.540 –> 00:13:29.620

aufzugreifen. Damit mag ich

00:13:26.540 –> 00:13:31.980

gerne J├╝rgen zun├Ąchst erst mal mit in die Runde aufnehmen und dann k├Ânnen wir

00:13:31.980 –> 00:13:36.340

gerne auch noch mal Querbez├╝ge herstellen. Guten Morgen lieber J├╝rgen.

00:13:36.340 –> 00:13:43.260

Guten Morgen liebe Yasemin, guten Morgen lieber Marc und guten Morgen alle im Raum.

00:13:43.260 –> 00:13:52.140

Ich danke f├╝rs Aufgreifen, liebe Yasemin, und fand einen Teilbereich. Grunds├Ątzlich

00:13:52.140 –> 00:13:57.700

halte ich alle kommentare von Marc immer sehr aus dem leben gegriffen und

00:13:57.700 –> 00:14:04.180

deswegen zielf├╝hrend f├╝r unsere Themen, aber insbesondere dieses Beispiel mit der

00:14:04.180 –> 00:14:13.140

aktuellen Diskussion um das neue W├Ąrmegesetz oder wie hei├čt es da,

00:14:13.140 –> 00:14:18.420

da diese besondere Erd-…

00:14:18.420 –> 00:14:23.420

Ach, mir fehlt jetzt der konkrete Begriff.

00:14:23.420 –> 00:14:29.900

Ich w├╝rde das ganz gerne mal hernehmen, lieber Barack, dein Beispiel, das du ja gesagt hast

00:14:29.900 –> 00:14:39.300

und es verbunden hast mit dem Storytelling, dass wir bei den Begrifflichkeiten Ethik und

00:14:39.300 –> 00:14:47.220

Technologie, wenn wir mal von Ethik ausgehen, da ist eine der g├Ąngigen Definitionen ja,

00:14:47.220 –> 00:14:53.460

dass es das theoretische Konstrukt dessen ist, was als richtig und falsch,

00:14:53.460 –> 00:15:03.340

beziehungsweise als gut oder b├Âse bezeichnet wird. Bezogen auf die Verkn├╝pfung mit Technologie

00:15:03.340 –> 00:15:10.220

hei├čt das, die Ethik, wer auch immer sie definiert, komme ich auch kurz noch drauf,

00:15:10.220 –> 00:15:22.940

definiert, welche Technologien gut und b├Âse sind. Und in Bezug auf wer es definiert, sehe ich zwei

00:15:22.940 –> 00:15:31.660

Teilbereiche, ganz wesentlich in der Unterscheidung, auch von der Konsequenz. Einmal, was als ethisch

00:15:31.660 –> 00:15:41.200

von einer zum Beispiel politischen Instanz vom Gesetzgeber als ethisches Konstrukt und Vorgabe

00:15:41.200 –> 00:15:47.120

gesehen wird und auf der anderen Seite, was durchaus dem nicht entsprechen muss, was jeder

00:15:47.120 –> 00:15:57.280

Einzelne von uns f├╝r sich als seine Individualethik definiert hat. Die Ergebnisgr├Â├čen, die Umsetzungsformen

00:15:57.280 –> 00:16:08.000

aus Ethik. Das ist nach meinem Verst├Ąndnis die Moral. Also das, was wir dann im t├Ąglichen Umgang

00:16:08.000 –> 00:16:16.640

miteinander als gut und b├Âse, richtig und falsch empfinden und was wir entsprechend sanktionieren

00:16:16.640 –> 00:16:23.360

durch Beipflichten oder durch entsprechende Gegenreaktionen.

00:16:23.360 –> 00:16:29.680

Und auf der, das mag ich noch beitragen, dann bin ich auch wieder ruhig,

00:16:29.680 –> 00:16:35.200

auf der Ebene der institutionalisierten Verkn├╝pfung von Ethik und Technologie,

00:16:35.200 –> 00:16:43.160

da gibt es eine Instanz in der Bundesrepublik, die sich damit vehement besch├Ąftigt,

00:16:43.160 –> 00:16:46.160

Und zwar ist das der Ethikrat.

00:16:46.160 –> 00:17:01.160

Und der Ethikrat hat vor nicht an zu langer Zeit eine sehr interessante Publikation ├╝ber die Verkn├╝pfung von Ethik mit der k├╝nstlichen Intelligenz ver├Âffentlicht.

00:17:01.160 –> 00:17:05.160

Kann ich jedem nur empfehlen zum Lesen.

00:17:05.160 –> 00:17:10.020

deswegen, weil sehr viel Wert auf die

00:17:10.020 –> 00:17:12.040

Erbgrenzung und die

00:17:12.040 –> 00:17:15.360

Eindeutigkeit der Begrifflichkeiten

00:17:15.360 –> 00:17:19.960

gelegt wird. Vielen Dank f├╝rs Zuh├Âren und

00:17:19.960 –> 00:17:21.720

das soll mal mein Input sein.

00:17:21.720 –> 00:17:24.520

Ja wunderbar, vielen, vielen lieben Dank.

00:17:24.520 –> 00:17:29.160

Und ja, Marc, magst du hier direkt mit

00:17:29.160 –> 00:17:30.680

anschlie├čen an der Stelle? Ja, lieber J├╝rgen,

00:17:30.680 –> 00:17:32.560

vielen, vielen Dank f├╝r deinen Beitrag.

00:17:32.560 –> 00:17:34.600

Genau das ist das Interessante, dass

00:17:32.560 –> 00:17:37.160

dass du dich dann auch immer f├╝r mich auf die W├Ârter spezialisierst.

00:17:37.160 –> 00:17:39.920

Und das Thema ist halt so komplex.

00:17:39.920 –> 00:17:43.040

Und ich komme noch mal zur├╝ck auf das Thema Bildung.

00:17:43.040 –> 00:17:46.800

Und denke, dass wir viele Dinge noch gar nicht ├╝berschauen k├Ânnen.

00:17:46.800 –> 00:17:49.400

Ich h├Ątte gleich noch das Thema Robotik angesprochen.

00:17:49.400 –> 00:17:51.320

Und zwar gibt es ja dann auch Untersuchungen.

00:17:51.320 –> 00:17:53.480

Wie reagieren Menschen auf Roboter?

00:17:53.480 –> 00:17:56.880

Wie baut man eine Beziehung auf zwischen Mensch und Roboter?

00:17:56.880 –> 00:17:58.600

Will man das ├╝berhaupt aufbauen?

00:17:58.600 –> 00:18:00.360

Was passiert, wenn es Beziehungen gibt?

00:18:00.520 –> 00:18:04.120

Es gibt durchaus auch Untersuchungen oder gute Sachen.

00:18:04.120 –> 00:18:07.120

Man kann das gut betrachten. Die Einsamkeit wird zunehmen.

00:18:07.120 –> 00:18:09.000

Wir sind ├╝beralternde Bev├Âlkerung.

00:18:09.000 –> 00:18:11.280

Das hei├čt, viele von uns, das w├╝nsche ich niemandem,

00:18:11.280 –> 00:18:14.240

werden im Alter vielleicht alleine sein, weil der Partner stirbt.

00:18:14.240 –> 00:18:16.880

In anderen Kulturen ist es genauso.

00:18:16.880 –> 00:18:19.240

Und dann gibt es mittlerweile Roboterhunde.

00:18:19.240 –> 00:18:21.120

Und da gibt es Untersuchungen,

00:18:21.120 –> 00:18:23.880

dass der Mensch eine Beziehung zu diesem Roboter herstellen kann

00:18:23.880 –> 00:18:26.080

und dann irgendwann mal auch nicht mehr unterscheidet,

00:18:26.080 –> 00:18:28.840

ob das eine Maschine ist oder ein Mensch.

00:18:29.000 –> 00:18:32.080

Und es gibt Ideen, wie man die Computer so programmieren kann.

00:18:32.080 –> 00:18:34.000

Wir wissen, dass wir alle gef├╝hlsorientiert sind.

00:18:34.000 –> 00:18:36.200

Und es gibt Mechanismen, warum wir uns verlieben.

00:18:36.200 –> 00:18:38.440

Warum wir eine Beziehung zu jemandem herstellen,

00:18:38.440 –> 00:18:41.880

auch das kann man in der Maschine ganz genau so programmieren.

00:18:41.880 –> 00:18:45.640

Aber dann jetzt in die Zukunft zu gucken, was das f├╝r Konsequenzen hat.

00:18:45.640 –> 00:18:47.800

N├Ąmlich, was ich letzte Woche schon erw├Ąhnt habe,

00:18:47.800 –> 00:18:50.320

wenn ich jetzt eine Beziehung habe zu meinem Roboter

00:18:50.320 –> 00:18:52.040

und bei mir im Haus brennt es,

00:18:52.040 –> 00:18:55.600

und dann aber meinen Roboter rette, was jetzt vielleicht absurd klingt,

00:18:55.600 –> 00:18:58.600

aber ich habe eine Beziehung, und das w├╝rde mir viel zu lange dauern,

00:18:58.760 –> 00:19:03.400

einen n├Ąchsten Roboter wieder so lange zu haben, dass der genau das macht, was ich will,

00:19:03.400 –> 00:19:07.520

dass der genau auf mich abgestimmt ist. Und vielleicht entscheide ich mich dann in einem

00:19:07.520 –> 00:19:11.560

Krisenfall, meinen Roboter eher zu retten als meinen Nachbarn, den ich vielleicht eh

00:19:11.560 –> 00:19:17.000

nicht mag und so weiter. Und das, wie gesagt, da in die Zukunft zu gucken, da finde ich

00:19:17.000 –> 00:19:21.960

das gut, dass wir ein Ethiker haben, lieber J├╝rgen, weil da einfach Dinge auf uns zukommen,

00:19:21.960 –> 00:19:25.440

die wir momentan noch gar nicht durchdenken, weil die halt einfach noch nicht da sind.

00:19:25.440 –> 00:19:30.400

Und wenn sie dann da sind, dann ist es vielleicht zu sp├Ąt, sich dar├╝ber Gedanken zu machen,

00:19:30.400 –> 00:19:33.960

weil es dann immer schwieriger wird, nachfolgende Gesetze zu ├Ąndern.

00:19:33.960 –> 00:19:38.800

Ja, vielen, vielen lieben Dank.

00:19:38.800 –> 00:19:46.320

Und bei mir ist nochmal der Impuls aufgekommen, vielleicht auch getriggert durch die Begrifflichkeiten,

00:19:46.320 –> 00:19:52.680

die verwendet wurden in Bezug auf Ethik, was denn richtig und falsch bzw. gut und b├Âse

00:19:52.680 –> 00:19:59.240

ist im Kontext mit Technologien, da stellt sich mir die Frage, ob das denn ├╝berhaupt

00:19:59.240 –> 00:20:06.240

so klar definiert werden muss. Und dann daraus ergibt sich ja dann auf der einen Seite eben

00:20:06.240 –> 00:20:15.200

auf der Ebene des Ethikrates zum Beispiel etwas, was zum Beispiel in Anf├╝hrungsstrichen

00:20:15.200 –> 00:20:20.560

definiert oder vorgegeben wird und auf der anderen Seite eben diese individuelle Ebene.

00:20:20.560 –> 00:20:25.320

wenn wir jetzt noch mal anders uns

00:20:25.320 –> 00:20:27.640

ann├Ąhern an das Thema, n├Ąmlich nicht,

00:20:27.640 –> 00:20:29.080

dass irgendjemand definiert, egal von

00:20:29.080 –> 00:20:30.560

welcher Seite, auch individuell nicht

00:20:30.560 –> 00:20:32.560

definiert wird, was gut oder b├Âse ist,

00:20:32.560 –> 00:20:34.840

sondern in Anf├╝hrungsstrichen, wir haben

00:20:34.840 –> 00:20:38.520

ja festgestellt, dass im Grunde genommen

00:20:38.520 –> 00:20:40.520

nichts davon gut oder schlecht ist oder

00:20:40.520 –> 00:20:42.960

richtig oder falsch ist, sondern es ist

00:20:42.960 –> 00:20:45.120

ja immer die Perspektive, aus der

00:20:45.120 –> 00:20:48.320

das Ganze betrachtet wird und in

00:20:45.120 –> 00:20:51.880

Insofern hat es ja auch was damit zu tun, dass wir uns auch die Frage stellen k├Ânnen.

00:20:51.880 –> 00:20:57.080

Wir hatten ja zum Beispiel ├╝ber geordnete Schl├╝sselqualifikationen gesprochen.

00:20:57.080 –> 00:21:02.240

Hier laufen wir jetzt vom Begrifflichen in Richtung Future Skills.

00:21:02.240 –> 00:21:06.840

Wir werden dieses Thema Future Skills auch nochmal separat und Mega-Learning auch nochmal

00:21:06.840 –> 00:21:10.960

separat aufgreifen und hier nochmal genauer hinschauen in den n├Ąchsten Tagen.

00:21:10.960 –> 00:21:14.600

Aber zumindest schon mal hier das mit angestriffen zu haben,

00:21:14.600 –> 00:21:18.800

eben ob es nicht unabh├Ąngig davon, welche Begriffe wir jetzt verwenden,

00:21:18.800 –> 00:21:23.080

daf├╝r also diese urspr├╝nglich gedachten ├╝bergeordneten Schl├╝sselqualifikationen

00:21:23.080 –> 00:21:28.480

hier in diesem Kontext auch so weit zu gehen und zu sagen, eben eine gewisse

00:21:28.480 –> 00:21:32.800

Art Sensibilisierung auf die Themen aufzumachen, Menschen so zu

00:21:32.800 –> 00:21:37.600

begleiten oder die Leitplanken so zu setzen,

00:21:38.080 –> 00:21:43.760

dass innerhalb dieser Menschen auch bef├Ąhigt werden, sozusagen selbst immer wieder in die

00:21:43.760 –> 00:21:49.760

Abw├Ągung zu kommen, also ohne dass man das von au├čen vorgibt oder vordefiniert und das

00:21:49.760 –> 00:21:54.200

Individuum selbst dann auch noch mal als Konsequenz den Abgleich f├╝r sich selbst auch an der

00:21:54.200 –> 00:21:55.200

Stelle machen muss.

00:21:55.200 –> 00:22:01.720

Ist so was so aus eurer Sicht eben auch denkbar und m├Âglich und w├Ąre das zielf├╝hrend als

00:22:01.720 –> 00:22:04.080

Frage auch mal mit reingegeben.

00:22:04.080 –> 00:22:05.720

J├╝rgen, magst du dazu anschlie├čen?

00:22:05.720 –> 00:22:07.720

(Rednerwechsel)

00:22:07.720 –> 00:22:21.720

Ja, ich bringe, um ganz ehrlich zu sein, eigentlich den Eingang

00:22:21.720 –> 00:22:25.720

deiner Bemerkung mit dem Schluss nicht mehr zusammen.

00:22:25.720 –> 00:22:29.720

Vielleicht habe ich das aber auch, weil ich im Moment in einem sehr

00:22:29.720 –> 00:22:33.720

heraus intensiven Umfeld mich aufhalte, vielleicht nicht so

00:22:33.720 –> 00:22:40.320

richtig verstanden, liebe Yasemin, aber deswegen gebe ich die Frage jetzt noch

00:22:40.320 –> 00:22:49.280

mal zur├╝ck, gehst du davon aus, dass es eine sowohl individuelle Ebene,

00:22:49.280 –> 00:22:54.920

der Definition dieser Ethik, dieses Gut und B├Âse, n├Ąmlich jetzt mal

00:22:54.920 –> 00:22:59.960

schlagmutterartig, gibt, als auch eine institutionalisierte. Ich habe dich

00:22:59.960 –> 00:23:05.280

n├Ąmlich, ich frage deswegen, weil ich am Anfang verstanden habe, dass du dich von

00:23:05.280 –> 00:23:10.960

diesen beiden Positionen trennen m├Âchtest. Und da habe ich mich gefragt,

00:23:10.960 –> 00:23:19.000

welche Ebene greift denn dann? Weil zum Beispiel eine neue Technologie existiert

00:23:19.000 –> 00:23:25.240

ja nicht per se, sondern sie hat immer eine Intention, auf jeden Fall von demjenigen,

00:23:25.240 –> 00:23:30.240

der sie erschafft. Aber es kann sein, wie gesagt, aufgrund der

00:23:30.240 –> 00:23:33.240

derzeitigen Umwelt, dass ich das falsch verstanden habe. Sorry.

00:23:33.240 –> 00:23:39.240

Ja, vielen, vielen lieben Dank f├╝r die Frage. Also mir geht es darum,

00:23:39.240 –> 00:23:44.240

die Technologie sozusagen nicht per se als gut oder schlecht zu definieren.

00:23:44.240 –> 00:23:50.240

Also es kann zwar eben verschiedene Ebenen geben, auf denen wir

00:23:50.240 –> 00:23:56.780

ethisch gewisse Dinge definieren, ja, aber nicht die Technologie als solches, also zum

00:23:56.780 –> 00:24:01.200

Beispiel zu sagen, Atomkraftwerke sind per se grunds├Ątzlich schlecht, davon wollen wir

00:24:01.200 –> 00:24:10.540

weg, sondern auch hier sozusagen gewisse T├╝ren offen zu lassen, im Hinblick auf Leitplanken

00:24:10.540 –> 00:24:17.600

zu setzen, zwar, aber nicht per se von vornherein zu definieren, welche Technologie denn jetzt

00:24:17.600 –> 00:24:22.600

oder schlechtes oder ├Ąhnliches.

00:24:22.600 –> 00:24:27.200

Das meinte ich damit. J├╝rgen, magst du

00:24:27.200 –> 00:24:31.840

da noch mal anschlie├čen? Okay, da finden wir

00:24:31.840 –> 00:24:33.880

uns jetzt zusammen, weil und ich gehe jetzt

00:24:33.880 –> 00:24:38.240

also das ist glaube ich eine wirklich eine

00:24:38.240 –> 00:24:43.040

eine sehr divisive und

00:24:43.040 –> 00:24:46.560

eigengepr├Ągte Anschauungsweise. Ich gehe

00:24:43.040 –> 00:24:49.560

Ich gehe mal davon aus, dass du das in gleicher Intention so benutzt oder siehst, wie ich,

00:24:49.560 –> 00:24:55.840

dass ich sage, die Technologie an sich macht nicht gut und b├Âse und die entscheidet auch

00:24:55.840 –> 00:25:02.160

nicht dar├╝ber, ob sie richtig oder falsch ist, sondern derjenige, der die Technologie

00:25:02.160 –> 00:25:08.440

entwickelt, der die Technologie nutzt und der sie f├╝r seine Zwecke nutzt.

00:25:08.440 –> 00:25:11.840

Habe ich dich da in der Richtung richtig verstanden?

00:25:11.840 –> 00:25:13.840

Ja, absolut.

00:25:13.840 –> 00:25:19.840

Okay, da sind wir beieinander.

00:25:19.840 –> 00:25:23.840

Dann stellt sich f├╝r mich aber auch die Frage,

00:25:23.840 –> 00:25:27.840

wenn ich eine neue Technologie habe,

00:25:27.840 –> 00:25:29.840

wie das Beispiel das Marc angef├╝hrt hat,

00:25:29.840 –> 00:25:32.840

mit diesen Genscheren zum Beispiel,

00:25:32.840 –> 00:25:34.840

die ich gerne aufnehme,

00:25:34.840 –> 00:25:37.840

weil ich da vor kurzem auch etwas dar├╝ber gelesen habe,

00:25:37.840 –> 00:25:47.600

dann ist man durchaus in der Lage, wie bei vielen anderen Dingen sowohl positives als auch negatives

00:25:47.600 –> 00:25:55.280

zu sehen. da ist der markt ja auch darauf eingegangen. der unterschied und der pr├Ągende

00:25:55.280 –> 00:26:02.040

Unterschied auch im Hinblick auf bis hin zum Storytelling dieser neuen Technologie ist aber,

00:26:02.040 –> 00:26:10.820

dass der Au├čenstehende, sowohl du als auch ich, als auch der Marc, mit ganz anderen Augen darauf

00:26:10.820 –> 00:26:20.520

schaut und genauso schaut mit anderen Augen die Politik darauf. Die Politik schaut, da lehne ich

00:26:20.520 –> 00:26:30.600

mich jetzt mal aus dem Fenster, aus Opportunit├Ąts- und aus in Anf├╝hrungsstrichen Machtaspekten

00:26:30.600 –> 00:26:39.560

auf diese Technologie. Was aber im Grunde genommen kaum etwas anderes ist, als meine Sichtweise,

00:26:39.560 –> 00:26:45.480

ich will euch da jetzt nicht inkludieren, das m├Âchte ich nicht tun, aber aus meiner Sichtweise,

00:26:45.480 –> 00:26:51.000

indem ich, und jetzt sind wir wieder bei der Grundstruktur der Neurowissenschaft, liebe

00:26:51.000 –> 00:27:00.600

Yasmin, in dem ich sage, was n├╝tzt es mir oder muss ich mich davor f├╝rchten und im Grunde genommen

00:27:00.600 –> 00:27:08.160

schlie├čt sich f├╝r mich da eben dieser Kreis, dass ich sagte, die Technologie, eine neue Technologie

00:27:08.160 –> 00:27:16.040

oder eine abgewandte Technologie existiert niemals per se, sondern sie hat immer einen Onlooker,

00:27:16.040 –> 00:27:22.200

einer der drauf schaut und der eine gewisse Motivation, eine Intention und

00:27:22.200 –> 00:27:27.800

eine Vision oder Zielsetzung damit verbindet.

00:27:27.800 –> 00:27:34.000

Ja wunderbar, vielen vielen Dank. Marc magst du hier anschlie├čen?

00:27:34.000 –> 00:27:39.000

Ja ich habe n├Ąmlich noch einen Punkt, weil als ich das mit diesen Babys, mit

00:27:39.000 –> 00:27:42.080

den drei M├Ądchen in Chile gelesen habe, da kommt noch ein viel interessanterer

00:27:42.080 –> 00:27:46.240

Aspekt dazu. Was ist denn mit dem Datenschutz? Also nehmen wir mal an, ich

00:27:46.240 –> 00:27:49.520

bin gentechnisch behandelt und kann jetzt kein HIV mehr bekommen.

00:27:49.520 –> 00:27:53.320

Jetzt bin ich auf der Suche nach einer Partnerin und h├Ątte auch unheimlich

00:27:53.320 –> 00:27:57.360

gern ein Kind mit dieser Partnerin. Inwiefern muss das dann geregelt werden?

00:27:57.360 –> 00:28:01.240

Es k├Ânnte ja sein, dass die Partnerin eine andere Einstellung hat als ich. Also

00:28:01.240 –> 00:28:04.400

sagen wir mal, meine Partnerin sagt, ich m├Âchte kein Kind mit dir. Ja warum denn

00:28:04.400 –> 00:28:08.080

nicht? Du bist gentechnisch behandelt. Ich habe Riesenangst, was das mit unserem

00:28:08.080 –> 00:28:12.720

Baby macht. Ich m├Âchte kein King von einem Mann, der gentechnisch behandelt ist. Und

00:28:12.720 –> 00:28:16.360

ich sage einfach, das ist mein Ding, das m├Âchte ich dir nicht sagen, weil das ist

00:28:16.360 –> 00:28:19.720

meine private Sache. Und schon sind wir wieder bei den Gesetzen. Wo h├Ârt meine

00:28:19.720 –> 00:28:23.840

Freiheit auf, das Individuelle? Und wo m├╝ssen Sachen geregelt werden? Wenn es

00:28:23.840 –> 00:28:27.520

meine eigene Sache ist, kann ich ja sagen, ich sage dir das nicht, das ist

00:28:27.520 –> 00:28:30.600

mein eigenes Ding. Aber genauso gut hat der andere das Recht zu sagen, h├Âr mal zu,

00:28:30.600 –> 00:28:35.880

ich entscheide aber trotzdem, mit wem ich mich fortpflanze oder nicht.

00:28:35.880 –> 00:28:40.080

Ach ja, herrlich, vielen, vielen lieben Dank. Und das Spannende ist halt, hier

00:28:40.080 –> 00:28:44.240

kommt, hier wird ja deutlich, welche Komplexit├Ąt das Ganze hat, weil es eben

00:28:44.240 –> 00:28:47.520

dann nicht nur, und deswegen fand ich das jetzt auch noch mal ein sch├Ânes

00:28:47.520 –> 00:28:51.000

Beispiel an der Stelle, weil es ja nicht nur in Anf├╝hrungsstrichen

00:28:51.000 –> 00:28:55.320

m├Âglicherweise uns selbst betrifft an der Stelle, sondern zum Beispiel, wenn wir

00:28:55.320 –> 00:29:01.560

eben in der Konstellation, Institution Familie, Ehe und so weiter

00:29:01.560 –> 00:29:06.540

denken, eben Familie auch mit dazunehmen. Dann eben auch so was wie, dann betrifft

00:29:06.540 –> 00:29:12.740

das eben auch Aspekte wie Kinder, die vielleicht noch, ja, noch nicht

00:29:12.740 –> 00:29:16.200

vollj├Ąhrig sind, die selbst keine Entscheidungen treffen k├Ânnen und und

00:29:16.200 –> 00:29:19.800

und. Und das macht sehr, sehr deutlich, wie schnell eben auch diese Komplexit├Ąt

00:29:19.800 –> 00:29:26.680

hier einfach sichtbar zu machen, also dass die auch vorhanden ist. Und auch

00:29:26.680 –> 00:29:30.040

an, wenn wir an verschiedenen Stellen auch verschiedene Diskussionen

00:29:30.040 –> 00:29:34.640

aufgreifen, ob das jetzt Technologien sind, ob das andere Zusammenh├Ąnge sind,

00:29:34.640 –> 00:29:41.760

auch gerade bei den ganzen Diskussionen, die ja da auch aktuell stattfinden,

00:29:41.760 –> 00:29:48.400

angefangen vom Gendern bis hin zu, ja, diese Regenbogenbewegungen bis hin zu

00:29:48.400 –> 00:29:53.800

Umoperationen, die gestattet werden sollen oder nicht oder wie damit umgegangen

00:29:53.800 –> 00:29:59.200

wird, wenn Eltern dem nicht zustimmen oder ├Ąhnliches. Also all das kann man hier

00:29:59.200 –> 00:30:03.520

sehr sch├Ân gerade auch in den Diskussionen aktuell ja auch beobachten,

00:30:03.520 –> 00:30:09.220

was das eben auch dann an unterschiedlichen Impulsen ausl├Âst, wie

00:30:09.220 –> 00:30:15.000

dar├╝ber diskutiert wird. Und auch hier sind ja ├╝berall ethische Aspekte

00:30:15.000 –> 00:30:18.440

mit dabei, die hier eine ganz wesentliche Rolle bei diesen ganzen

00:30:18.440 –> 00:30:23.520

Betrachtungsweisen auch spielen und wie Menschen eben auch darauf reagieren, wie

00:30:23.520 –> 00:30:28.720

ihre Haltung eben letztendlich auch zu bestimmten Themen ist, in Anf├╝hrungsstrichen.

00:30:28.720 –> 00:30:33.760

ohne das zu bewerten, sondern einfach erst mal neutral zu beobachten und aus

00:30:33.760 –> 00:30:38.840

dieser Perspektive mal drauf zu schauen. Und also von daher wird deutlich, dass

00:30:38.840 –> 00:30:44.200

hier diese Komplexit├Ąt vorhanden ist und das ist das, was es auch so

00:30:44.200 –> 00:30:49.240

herausfordernd macht, hier auch in Anf├╝hrungsstrichen L├Âsungen daf├╝r, f├╝r

00:30:49.240 –> 00:30:53.200

diese Thematik oder Problematik sozusagen auch zu finden. Und

00:30:53.200 –> 00:30:58.200

m├Âglicherweise auch, dass mit einer der Gr├╝nde ist, warum am Ende in

00:30:58.200 –> 00:31:02.200

Anf├╝hrungsstrichen, es dann zwar vielleicht viele Diskussionen gibt oder

00:31:02.200 –> 00:31:07.360

viele Ans├Ątze und ├ťberlegungen, aber immer wieder die L├Âsung dann doch darin

00:31:07.360 –> 00:31:11.320

gefunden wird, zu sagen, jetzt muss es doch von einer zentralen Stelle irgendwie,

00:31:11.320 –> 00:31:15.400

wer auch immer die zentrale Stelle dann ist, das kann ja auch unterschiedlich

00:31:15.400 –> 00:31:19.440

sein, je nachdem, was wir uns da betrachten, von zentraler Stelle

00:31:19.440 –> 00:31:22.640

irgendwie vorgegeben werden oder gesteuert werden, weil sonst kommen wir

00:31:22.640 –> 00:31:25.800

hier an der Stelle nicht weiter. Ist das denn ├╝berhaupt eine L├Âsung?

00:31:25.800 –> 00:31:30.020

Fragezeichen w├Ąre ja dann auch die n├Ąchste Fragestellung, die wir mit

00:31:30.020 –> 00:31:34.380

aufgreifen k├Ânnen an der Stelle. Mag da jemand noch mal mit andocken an der Stelle?

00:31:34.380 –> 00:31:44.540

Ich habe da noch mal einen Punkt, liebe Yasemin. Wir wissen ja auch alle, das k├Ânnen wir uns am

00:31:44.540 –> 00:31:49.500

besten vorstellen, dass das Handy uns alle ver├Ąndert hat. Zumindest sagt man,

00:31:49.500 –> 00:31:53.820

und es gibt Untersuchungen, dass das Handy die Aufmerksamkeitsspanne der Kinder ver├Ąndert hat.

00:31:53.820 –> 00:31:57.660

Also dass die Kinder eine ganz andere Konzentration in der Schule haben, wie vorher.

00:31:57.660 –> 00:32:02.740

Wenn es bevor es die H├Ąnde gegeben h├Ątte, jemand gesagt h├Ątte, Achtung, Handy, vorsichtig,

00:32:02.740 –> 00:32:06.380

k├Ânnte was mit unserer Konzentration machen, das h├Ątte man ja gar nicht gewusst.

00:32:06.380 –> 00:32:07.900

Und das Gleiche ist mit den Robotern.

00:32:07.900 –> 00:32:13.580

Es gibt also einen Test, wo man in einer Kindergrippe, da waren die Kinder zwischen 18 und 24 Monate,

00:32:13.580 –> 00:32:15.780

den hat man einen tanzenden Roboter mitgebracht.

00:32:15.780 –> 00:32:21.100

Und dann hat man festgestellt, dass nach f├╝nf Monaten schon die Kinder den Roboter so angenommen

00:32:21.100 –> 00:32:24.940

haben, das hei├čt, wenn der keinen Strom mehr hatte und der sich nicht mehr bewegt hat,

00:32:24.940 –> 00:32:29.620

dann haben die Kinder angefangen, also Kinder bis zu 24 Monate, den Roboter zu sch├╝tteln

00:32:29.620 –> 00:32:33.220

und haben dann gedacht, also mehr oder weniger stehe auf, der ist vielleicht m├╝de. Und wenn

00:32:33.220 –> 00:32:36.780

sie dann gedacht haben, der steht nicht auf, dann war der Schluss, der ist m├╝de. Dann

00:32:36.780 –> 00:32:40.780

haben diese Kinder also den Roboter wie ein Gleichaltrigem behandelt, haben dann eine

00:32:40.780 –> 00:32:44.500

Decke genommen und haben den Roboter zugedeckt, weil wenn der sich nicht bewegt und nicht

00:32:44.500 –> 00:32:48.100

tot ist, dann schl├Ąft er ja nur. Und das kann man jetzt weiterspielen. Jetzt gibt es

00:32:48.100 –> 00:32:51.740

keine Untersuchung, wie ver├Ąndert sich dann so ein Kind, also wenn das Kind l├Ąnger in

00:32:51.740 –> 00:32:55.940

so einer Gruppe aufw├Ąchst mit einem Roboter, kann das auch sein, dass das Verhalten von

00:32:55.940 –> 00:33:00.540

den Kindern auch ein ganz anderes ist, als Kinder, die ohne tanzenden Roboter oder ohne

00:33:00.540 –> 00:33:04.540

KI aufgewachsen sind. Und dann w├Ąren wir wieder bei der ethischen Frage und da das

00:33:04.540 –> 00:33:09.100

niemand von uns wei├č, wird auch kein Politiker diese Frage eindeutig beantworten k├Ânnen.

00:33:09.100 –> 00:33:13.900

Ich kann es auch nicht. Und darum sind Diskussionen wichtig und auch wieder Bildung, Fragen und

00:33:13.900 –> 00:33:19.180

Hinterfragen immer zu schauen, wen vertritt der, aus welcher Gruppe kommt der, ist das ein Lobbyist,

00:33:19.180 –> 00:33:26.100

der f├╝r eine Roboterfirma arbeitet oder wie auch immer, aber nicht diese Fragen, wie gesagt,

00:33:26.100 –> 00:33:31.140

so zu kontrollieren, wo kommen die Antworten meines Gegen├╝bers hin. Diese Sache losgel├Âst zu

00:33:31.140 –> 00:33:35.660

betrachten, Javier Asmin, finde ich auch interessant. Wenn du sagst, grunds├Ątzlich ist eine Technologie

00:33:35.660 –> 00:33:41.620

nicht gut oder b├Âse, dann kann ich ja auch einfach sagen, naja gut, dann ist ja auch ein Politiker

00:33:41.620 –> 00:33:47.140

nicht gut oder b├Âse, auch dann ist etwas nicht gut oder richtig. Und wenn der

00:33:47.140 –> 00:33:50.340

hoffentlich nicht gew├Ąhlt wird, der n├Ąchste amerikanische Pr├Ąsident wieder

00:33:50.340 –> 00:33:54.220

sagt, was schert uns Europa, das ist doch vollkommen egal und wir lassen auch

00:33:54.220 –> 00:33:57.420

keine Ausl├Ąnder mehr rein, dann ist das ja auch nicht richtig oder falsch, dann

00:33:57.420 –> 00:34:02.100

ist das erst mal ein Statement. Und daher bin ich dann eher J├╝rgens Ansicht,

00:34:02.100 –> 00:34:05.140

dass es immer verschiedene Interessen gibt, so sind wir Menschen gestrickt,

00:34:05.140 –> 00:34:09.220

unsere Emotionen werden wir nicht ausschalten k├Ânnen, das unterscheidet uns

00:34:09.220 –> 00:34:12.740

Gott sei Dank von einem Roboter. Und solange wir Emotionen haben, solange es

00:34:12.740 –> 00:34:17.140

Menschen mit Emotionen gibt, wird es auch diese Diskussion geben. Und das geht

00:34:17.140 –> 00:34:22.060

eben nur mit Respekt und einer Auseinandersetzung auf Augenh├Âhe.

00:34:22.060 –> 00:34:26.820

Ja super, vielen, vielen lieben Dank. Und das zeigt ja dann letztendlich auch, dass

00:34:26.820 –> 00:34:32.660

es dadurch, dass ja viele Dinge eben auch nicht absehbar sind, dass zum einen

00:34:32.660 –> 00:34:36.420

viele verschiedene T├╝ren, in Anf├╝hrungsstrichen, so will ich es jetzt

00:34:36.420 –> 00:34:40.780

mal bezeichnen, auch offengelassen werden m├╝ssen an der einen Stelle, weil man muss

00:34:40.780 –> 00:34:46.680

ja auch gewisserma├čen ├╝berhaupt erstmal beobachten und schauen und kann ja auch

00:34:46.680 –> 00:34:51.060

nicht alles in der Vorausschau sozusagen planen, weil man eben auch die Auswirkungen

00:34:51.060 –> 00:34:54.780

von gewissen Technologien vielleicht auch gar nicht kennt und das noch gar

00:34:54.780 –> 00:34:58.700

nicht beurteilen kann. Das ist mal das eine. Deswegen kann man ja auch nicht

00:34:58.700 –> 00:35:02.780

├╝berall restriktiv sozusagen drauf blicken und schon gewisse Dinge

00:35:02.780 –> 00:35:06.340

untersagen, obwohl man noch gar nicht wei├č, wie sich das entwickelt oder was

00:35:06.340 –> 00:35:12.020

passieren wird. Gleichzeitig zeigt es auch, dass es an der einen oder anderen

00:35:12.020 –> 00:35:15.580

Stelle eben auch eine hohe Reaktionsgeschwindigkeit oder

00:35:15.580 –> 00:35:20.300

Diskussions- oder Reaktionsgeschwindigkeit braucht, um agil eben auch auf

00:35:20.300 –> 00:35:25.180

bestimmte Herausforderungen und Probleme, die sich dann aber auch abzeichnen lassen,

00:35:25.180 –> 00:35:31.580

eben in Anf├╝hrungsstrichen schnell genug zu reagieren und hier auch T├╝ren

00:35:31.580 –> 00:35:34.820

in Anf├╝hrungsstrichen wieder zuzumachen, die vorher offen gelassen wurden

00:35:34.820 –> 00:35:40.820

m├Âglicherweise. Und gleichzeitig ist es aber so, dass ein Diskurs mit der

00:35:40.820 –> 00:35:44.900

Betrachtung verschiedener Perspektiven und so weiter ja auch etwas ist, was auch

00:35:44.900 –> 00:35:50.140

eine gewisse Zeit per se, also es liegt in der Sache sozusagen, auch braucht.

00:35:50.140 –> 00:35:55.900

Also der Zeitfaktor spielt hier eine enorme Rolle an der Stelle, mit

00:35:55.900 –> 00:36:00.860

also einem Spannungsfeld, in dem wir uns befinden. Auf der einen Seite sozusagen

00:36:00.860 –> 00:36:06.500

zu sehen, da rollt was auf uns zu. Da ist es erforderlich, eben auch ethisch drauf

00:36:06.500 –> 00:36:11.480

zu gucken, in Anf├╝hrungsstrichen, und hier m├Âglicherweise im Diskurs auch zu

00:36:11.480 –> 00:36:14.940

├╝berlegen, was kann man machen oder wie kann man damit vorgehen und gleichzeitig

00:36:14.940 –> 00:36:18.260

auf der einen Seite nicht zu viel Zeit verstreichen zu lassen, auf der anderen

00:36:18.260 –> 00:36:23.900

Seite aber dem auch die Zeit zu geben, eben hier auch Probleme wirklich

00:36:23.900 –> 00:36:27.100

erstmal sichtbar werden zu lassen, die man vielleicht in der Vorausschau gar

00:36:27.100 –> 00:36:32.860

nicht erblicken oder erahnen kann, um dann entsprechend auch wieder damit umzugehen,

00:36:32.860 –> 00:36:36.620

sobald es in Anf├╝hrungsstrichen m├Âglicherweise dann eingetroffen ist,

00:36:36.620 –> 00:36:39.940

auch wenn man damit vorher nicht gerechnet hat, in Anf├╝hrungsstrichen.

00:36:39.940 –> 00:36:45.060

Und dann kann man nat├╝rlich auch verschiedene, und jetzt reden wir ja relativ abstrakt dar├╝ber,

00:36:45.060 –> 00:36:48.740

und es wird ja deutlich, dass es hier auch wahrscheinlich darauf ankommt,

00:36:48.740 –> 00:36:53.140

um welche Kontexte sprechen wir denn eigentlich, und dass es hier auch nochmal

00:36:53.140 –> 00:37:00.940

m├Âglicherweise leichter f├Ąllt, auch Antworten zu finden oder uns eher anzun├Ąhern, wenn wir auch

00:37:00.940 –> 00:37:07.740

ganz konkretere Beispiele nehmen. Und eines der Beispiele, was j├╝ngst sehr, sehr stark ja auch

00:37:07.740 –> 00:37:13.340

an verschiedenen Stellen diskutiert wurde, ist ja so etwas wie zum Beispiel die Nutzung von

00:37:13.340 –> 00:37:21.620

künstlicher Intelligenz oder bei der zum Beispiel Videogestaltung oder Ähnliches, wo man eben zum

00:37:21.620 –> 00:37:25.820

Beispiel die Stimmen von Promis verwenden kann, Bilder von Promis verwenden kann,

00:37:25.820 –> 00:37:32.620

wo es dem Menschen heute schon nicht mehr leicht f├Ąllt, zu unterscheiden zu k├Ânnen,

00:37:32.620 –> 00:37:39.100

ist das jetzt echt oder fake. In Zukunft, wenn die Systeme hier noch ausgereifter sind,

00:37:39.100 –> 00:37:44.820

wird das wahrscheinlich mit blo├čem Auge ├╝berhaupt nicht mehr erkennbar sein.

00:37:44.820 –> 00:37:50.060

Jetzt, heute geht es teilweise noch, da kann man dann genauer draufschauen und wird vielleicht

00:37:50.060 –> 00:37:54.060

noch ein paar Unstimmigkeiten finden.

00:37:54.060 –> 00:37:55.260

Aber h├Ąufig nehmen wir uns ja gar

00:37:55.260 –> 00:37:58.300

nicht die Zeit, sondern sehen

00:37:58.300 –> 00:38:00.260

beispielsweise ein Video auf Social

00:38:00.260 –> 00:38:03.020

Media und scrollen dann auch relativ

00:38:03.020 –> 00:38:04.780

schnell weiter. Das hei├čt, hier kann man ja

00:38:04.780 –> 00:38:07.340

relativ schnell auch wirklich das

00:38:07.340 –> 00:38:10.500

Gef├╝hl haben, etwas gesehen zu haben,

00:38:10.500 –> 00:38:13.220

was dann eben ein Politiker oder irgendein

00:38:13.220 –> 00:38:15.380

Promi gesagt haben soll, was aber die

00:38:15.380 –> 00:38:19.580

Person gar nicht getan hat. Das hei├čt,

00:38:15.380 –> 00:38:21.740

hier in Richtung Fake News sozusagen auch gewisse Dinge in Verbreitung kommen.

00:38:21.740 –> 00:38:26.820

Wenn man jetzt in Richtung zum Beispiel Politik denken, Wahlen denken oder so,

00:38:26.820 –> 00:38:30.900

dann kann das nat├╝rlich auch verheerende Folgen haben. Also nicht nur in Bezug auf

00:38:30.900 –> 00:38:36.180

das Individuum, das dem hier gesch├Ądigt werden kann im Hinblick auf Reputation

00:38:36.180 –> 00:38:41.820

und so weiter und so fort, sondern bis hin zu eben auch auf der Ebene der

00:38:41.820 –> 00:38:45.940

Politik, dass hier eben auch Entscheidungen getroffen werden, Wahlen

00:38:45.940 –> 00:38:49.740

manipuliert werden oder Sonstiges. Und das sind ja tats├Ąchlich dann auch ernst

00:38:49.740 –> 00:38:54.100

zu nehmende Themen, wo es ja wirklich auch Sinn macht, draufzuschauen

00:38:54.100 –> 00:38:57.780

und zu ├╝berlegen, wie kann man da eben in Zukunft in Anf├╝hrungsstrichen damit

00:38:57.780 –> 00:39:03.660

auch umgehen. Und da bin ich jetzt mal gespannt, Marc, was du dazu sagst.

00:39:03.660 –> 00:39:08.640

Wir haben ja auch ├╝ber diesen Sicherheitsaspekt gesprochen. Nat├╝rlich

00:39:08.740 –> 00:39:12.940

macht es Sinn, wir kennen es von den Flugh├Ąfen, nat├╝rlich macht es Sinn, dass

00:39:12.940 –> 00:39:18.600

hier eben auch Personenkontrollen stattfinden, Personalausweise kontrolliert

00:39:18.600 –> 00:39:24.520

werden, dass entsprechend Security-Checks stattfinden und so weiter. Aber eine

00:39:24.520 –> 00:39:28.640

hundertprozentige Sicherheit in dem Sinne gibt es ja auch nicht. Und ich

00:39:28.640 –> 00:39:32.920

denke, das ist auch etwas, was bei diesen Diskussionen mit zu ber├╝cksichtigen ist,

00:39:32.920 –> 00:39:36.720

dass man hier eben immer wieder in Anf├╝hrungsstrichen letztendlich ein

00:39:36.720 –> 00:39:43.260

bestreben hat, gewisse Leitplanken zu setzen, Diskurse zu haben, L├Âsungen zu

00:39:43.260 –> 00:39:49.000

finden, aber dass es niemals eine eine L├Âsung geben wird, egal von welcher

00:39:49.000 –> 00:39:54.320

Seite oder von welcher Ebene wir uns dem Ganzen hier thematisch ann├Ąhern, die dann

00:39:54.320 –> 00:40:00.880

die absolute L├Âsung darstellen wird, sondern es auch hier anzunehmen, dass es

00:40:00.880 –> 00:40:05.480

keine endg├╝ltige L├Âsung gibt f├╝r diese Problematik, sondern dass es immer wieder

00:40:05.480 –> 00:40:10.480

neue Situationen geben wird, an die man nicht gedacht hat, immer wieder neue

00:40:10.480 –> 00:40:15.480

Aspekte, die sich vorher nicht ber├╝cksichtigen lassen haben,

00:40:15.480 –> 00:40:20.480

├╝berraschende Momente, die wir erleben werden als Menschen, wo wir dann in

00:40:20.480 –> 00:40:24.480

der Situation einfach immer wieder auch aufs Neue gucken werden m├╝ssen, deswegen

00:40:24.480 –> 00:40:29.480

auch nicht den Anspruch zu haben, hier eine endg├╝ltige L├Âsung zu finden.

00:40:29.480 –> 00:40:31.480

Marc, was sagst du denn dazu?

00:40:31.480 –> 00:40:37.880

Ja, zu meinem Sicherheitsaspekt. Uns muss halt bewusst werden, viele dieser Technologien werden nur funktionieren,

00:40:37.880 –> 00:40:43.080

indem wir Daten sammeln und auch Daten speichern. Und es gibt schon L├Ąnder, das hat mich sehr erschrocken,

00:40:43.080 –> 00:40:47.280

okay, wir wissen ├╝berall, dass Kameras zur Sicherheit eingesetzt werden.

00:40:47.280 –> 00:40:52.680

Jetzt kann ich ja auf die clevere Idee kommen zu sagen, gut, das ist mir egal, ich ziehe mir halt eine Baseball Cap ├╝bers Gesicht

00:40:52.680 –> 00:40:57.880

oder ich trage eine Strickm├╝tze oder so eine Motorradm├╝tze, dann kann ich das ja verhindern, dass die mich erkennen.

00:40:57.880 –> 00:41:02.880

Das ist aber sehr ignorant und auch naiv, denn mittlerweile gibt es KI-Systeme,

00:41:02.880 –> 00:41:05.880

die mich genau am Gang ausmachen k├Ânnen.

00:41:05.880 –> 00:41:07.880

Das hei├čt, der Mensch hat so einen individuellen Gang,

00:41:07.880 –> 00:41:11.880

dass die Kamera mich allein meines Gang- und Bewegungsbildes abgleichen kann.

00:41:11.880 –> 00:41:15.880

Das funktioniert ja aber nur wieder, wenn meine Daten grunds├Ątzlich speichert werden.

00:41:15.880 –> 00:41:20.880

Wenn ich einmal aufgenommen bin und diese Daten meiner Person zugeordnet werden,

00:41:20.880 –> 00:41:24.880

nur dann kann die KI mich auch wieder erkennen, wenn ich irgendwo anders mal wieder auftauche.

00:41:24.880 –> 00:41:28.680

Auftauch. Zum einen h├Ątten wir dann den Sicherheitsaspekt, super, weil wenn ich

00:41:28.680 –> 00:41:32.200

was B├Âses vorhabe, ist das ja eine Sicherheit f├╝r euch alle, dass man mich

00:41:32.200 –> 00:41:35.960

erkennt, wenn ich am Flughafen mit einer Maske herumlaufe. Zum anderen ist es, wie

00:41:35.960 –> 00:41:39.640

viele b├Âse Menschen gibt es und m├╝ssen dann alle B├╝rger darunter leihen und

00:41:39.640 –> 00:41:43.760

darum ist Datenschutz, finde ich, bei dieser ganzen Thematik auch ein Aspekt,

00:41:43.760 –> 00:41:47.760

den wir bestimmt immer wieder diskutieren werden.

00:41:47.760 –> 00:41:53.280

Ja, vielen lieben Dank, Marc. Und das macht es nat├╝rlich auch nicht weniger

00:41:53.280 –> 00:41:59.640

komplex an der Stelle und zeigt eben auch, ja, also es sind verschiedene Aspekte, die ja jetzt

00:41:59.640 –> 00:42:05.560

hier zusammenkommen. Und Datenschutz ist auch etwas, was auf der einen Seite eben wichtig und

00:42:05.560 –> 00:42:12.760

richtig in Anf├╝hrungsstrichen ist, im Sinne auch des Personenschutzes, sage ich jetzt einfach mal,

00:42:12.760 –> 00:42:18.600

das Individuum zu sch├╝tzen an der Stelle. Und auf der anderen Seite eben wird aber auch deutlich,

00:42:18.600 –> 00:42:23.720

Und da stellt sich eben auch die Frage, wie geht man eben auch mit Datenschutz in einer

00:42:23.720 –> 00:42:29.400

digitalen Zeit in Anf├╝hrungsstrichen um, wo ja auch deutlich wird, und das haben wir

00:42:29.400 –> 00:42:33.640

ja auch in anderen Kontexten schon sehr deutlich gehabt mit diesen neuen Technologien, wie

00:42:33.640 –> 00:42:39.520

wichtig eben auch in Bezug auf Wettbewerb, in Bezug auf Entwicklungen, die hier stattfinden,

00:42:39.520 –> 00:42:40.520

auch die Daten sind.

00:42:40.520 –> 00:42:48.160

Das hei├čt, wenn man hier aus diesem Gedanken heraus, das Individuum zu sch├╝tzen, sozusagen

00:42:48.160 –> 00:42:53.480

nichts m├Âglich macht an der Stelle, hat es ja auch Auswirkungen und Konsequenzen, an

00:42:53.480 –> 00:42:59.680

anderer Stelle wieder abgeh├Ąngt zu werden. Und auch hier merkt man sehr, sehr deutlich,

00:42:59.680 –> 00:43:05.440

wie herausfordernd eben auch genau dieser Umgang damit ist, immer wieder neu zu entscheiden,

00:43:05.440 –> 00:43:12.160

wie gehen wir damit um. Und m├Âglicherweise auch vergangene Entscheidungen auch immer wieder auf

00:43:12.160 –> 00:43:17.640

den Pr├╝fstand zu stellen und vor dem Hintergrund von Entwicklungen immer wieder neu zu pr├╝fen und

00:43:17.640 –> 00:43:23.640

neu zu diskutieren. Das hei├čt, und das ist das N├Ąchste, was ich daraus ableite, dass eine in der

00:43:23.640 –> 00:43:28.400

Vergangenheit getroffene Entscheidung eben m├Âglicherweise heute auch nicht mehr zeitgem├Ą├č

00:43:28.400 –> 00:43:36.320

ist und insofern auch immer wieder kritisch aufzugreifen ist und auch wieder neu zu hinterfragen

00:43:36.320 –> 00:43:42.280

ist, um m├Âglicherweise auch Anpassungen vorzunehmen oder auch neue Entscheidungen zu treffen,

00:43:42.280 –> 00:43:46.800

beziehungsweise vielleicht auch in dem einen oder anderen Fall zu entscheiden, bei der alten

00:43:46.800 –> 00:43:51.560

Entscheidung zu bleiben. Also auch das ist ja nicht ausgeschlossen. Aber um diese Bewertungen,

00:43:51.560 –> 00:43:56.920

Abw├Ągungen etc. vornehmen zu k├Ânnen, braucht es ja auch immer wieder auf der einen Seite

00:43:56.920 –> 00:44:04.520

der erneuten Betrachtung des kritischen Hinterfragens und auch wieder einer neuen Entscheidung,

00:44:04.520 –> 00:44:08.560

angelehnt an verschiedene Abw├Ągungen, die hier vorgenommen werden und gemacht werden.

00:44:08.560 –> 00:44:10.560

Mag Maxe da nochmal anschlie├čen?

00:44:10.560 –> 00:44:15.640

Ja, ich habe noch gerne einen Punkt. Ich denke f├╝r mich, ich bin zutiefst davon ├╝berzeugt,

00:44:15.640 –> 00:44:20.320

Roboter als Hilfe, also nicht Roboter, die was bauen, sondern Roboter als Hilfe ein

00:44:20.320 –> 00:44:24.080

Riesenthema in der Zukunft werden. Und total interessant finde ich, dass damit

00:44:24.080 –> 00:44:26.920

nicht nur Ingenieure besch├Ąftigt werden, also da gibt es nicht nur Teams, die

00:44:26.920 –> 00:44:30.720

sagen, wie bauen wir denn den Roboter, wie muss der sein, was muss der k├Ânnen.

00:44:30.720 –> 00:44:35.080

Das gibt eben dann auch eben Soziologen und Psychologen und dann laufen dann

00:44:35.080 –> 00:44:39.160

zum Beispiel solche Tests, man will den Roboter ja auch verkaufen und man hat

00:44:39.160 –> 00:44:42.720

festgestellt, dass Menschen sich unwohl f├╝hlen, wenn sich hinter ihrem R├╝cken

00:44:42.720 –> 00:44:45.280

eine Haushaltshilfe, also so einen fahrenden Roboter bewegen w├╝rde.

00:44:45.280 –> 00:44:48.200

Also gibt es tats├Ąchlich Untersuchungen, wie Menschen reagieren

00:44:48.200 –> 00:44:50.760

und wie der Roboter sich auch zu verhalten hat.

00:44:50.760 –> 00:44:53.720

Wenn der Roboter zum Beispiel immer nur den gleichen Satz sagt,

00:44:53.720 –> 00:44:55.800

zum Beispiel, ich habe einen Roboter, der bringt mir Kaffee

00:44:55.800 –> 00:44:58.480

und der kann aber nur sagen, hier ist dein Kaffee, guten Morgen, Marc.

00:44:58.480 –> 00:45:00.440

Dann geht mir das nach zwei Monaten auf die Nerven,

00:45:00.440 –> 00:45:01.760

weil er nichts anderes sagen kann.

00:45:01.760 –> 00:45:04.120

Also muss er mehrere Variationen haben.

00:45:04.120 –> 00:45:06.360

Und dann gibt es parallel dazu Untersuchungen,

00:45:06.360 –> 00:45:07.600

wie f├╝hle ich mich am wohlsten?

00:45:07.600 –> 00:45:09.480

Und der Stand der Erkenntnis heute ist,

00:45:09.480 –> 00:45:11.320

dass Menschen sich weder wohlf├╝hlen,

00:45:11.480 –> 00:45:14.560

wenn ein Roboter von hinten kommt, das ist bedrohlich f├╝r sie.

00:45:14.560 –> 00:45:16.080

Noch wenn er von vorne kommt,

00:45:16.080 –> 00:45:19.080

denn auch wenn er von vorne kommt, kann er noch so niedlich aussehen.

00:45:19.080 –> 00:45:21.000

Da wirkt er als Bedrohung.

00:45:21.000 –> 00:45:24.920

Wenn er zu niedlich aussieht, wenn er zu menschenm├Ąnnisch aussieht,

00:45:24.920 –> 00:45:28.080

dann gleichen wir unbewusst ab, dass der Roboter, wenn er l├Ąchelt,

00:45:28.080 –> 00:45:31.000

dass dann eben nicht die Gesichtsz├╝ge ver├Ąndert werden

00:45:31.000 –> 00:45:32.400

und dass die Augen sich nicht bewegen.

00:45:32.400 –> 00:45:35.600

Dann empfinden wir das als unnat├╝rlich und auch wieder befremdlich.

00:45:35.600 –> 00:45:37.280

Es ist vielleicht doch kein Mensch.

00:45:37.280 –> 00:45:41.280

Und da sieht man mal, welche ├ťberlegungen da alles mit einflie├čen,

00:45:41.440 –> 00:45:45.560

Das hat also nicht nur was mit Technik zu tun, sondern auch, wie werden in Zukunft Maschinen,

00:45:45.560 –> 00:45:49.480

also Roboter in unser Leben integriert, ohne dass wir sie dann eben als Bedrohung,

00:45:49.480 –> 00:45:54.040

sondern wirklich als Arbeitsunterst├╝tzung und als, ja wei├č nicht, Bereicherung empfinden.

00:45:54.040 –> 00:46:02.520

Ja, vielen Dank. Und da hatte ich ja auch vor einigen Tagen eben das Beispiel mit

00:46:02.520 –> 00:46:08.880

aufgegriffen, dass zum Beispiel im Silicon Valley eben auch entsprechend Tests durchgef├╝hrt werden,

00:46:08.880 –> 00:46:14.480

dass man eben sogenannte Showrooms oder so was hat im Silicon Valley, wo man dann,

00:46:14.480 –> 00:46:21.640

oder San Francisco, wo dann eben auch die Bev├Âlkerung lebt, dass man da eben tats├Ąchlich

00:46:21.640 –> 00:46:25.960

auch verschiedene Dinge testet im Sinne von, wie wird das denn angenommen? Und ich hatte das in

00:46:25.960 –> 00:46:33.000

diesem Kontext aufgemacht mit diesen Robotern, die im Hintergrund verschiedene Gerichte zubereiten,

00:46:33.000 –> 00:46:40.120

etc. und so, dass man das zwar per se wei├č, aber dass man die Roboter nicht sieht, damit das nicht

00:46:40.120 –> 00:46:46.040

befremdlich wirkt und dass im Endeffekt die Bestellung aufgegeben wird, die Bestellung im

00:46:46.040 –> 00:46:51.760

Hintergrund zubereitet wird und dann man das aus den Schubladen entsprechend sozusagen dann, die

00:46:51.760 –> 00:46:55.240

sich dann entsprechend ├Âffnen, wenn man dann draufklickt, wenn man die Bestellung abholen

00:46:55.240 –> 00:47:01.400

m├Âchte, dass man das rausnimmt und dann verzehrt. Nur mal ein Beispiel, da gibt es ganz verschiedene

00:47:01.400 –> 00:47:07.120

Showrooms, die es dort gibt. Da gibt es auch ├╝brigens von Amazon und so weiter, wo man dann

00:47:07.120 –> 00:47:16.520

eben zum Beispiel auch schaut, da wird dann getrackt, welche Produkte dann in die Hand

00:47:16.520 –> 00:47:21.840

genommen werden, was man sich da genau anschaut oder Sonstiges, sodass eben auch das Verhalten

00:47:21.840 –> 00:47:26.040

des Menschen an der Stelle ein St├╝ck weit auch beobachtet wird, um zu gucken, wie wird das denn

00:47:26.040 –> 00:47:30.920

eigentlich angenommen, bevor man dann eben auch gewisse Entscheidungen trifft in Bezug auf, ist

00:47:30.920 –> 00:47:35.120

der Mensch ├╝berhaupt denn schon so weit oder muss das anders gestaltet werden, um hier

00:47:35.120 –> 00:47:41.160

auch die Akzeptanz sozusagen zu erhalten, wenn man mit einem bestimmten Produkt zum

00:47:41.160 –> 00:47:44.200

beispiel jetzt zu diesem zeitpunkt auch auf den markt gehen w├╝rde.

00:47:44.200 –> 00:47:48.660

das hei├čt, diese marktforschung spielt hier doch auch in diesem technologischen kontext

00:47:48.660 –> 00:47:50.560

eine ganz, ganz wichtige Rolle.

00:47:50.560 –> 00:47:55.240

Und viele werden das vielleicht an der einen oder anderen Stelle auch erlebt haben oder

00:47:55.240 –> 00:47:56.240

mitbekommen haben.

00:47:56.240 –> 00:48:03.180

Gerade wenn neue Ideen kommen, zum Beispiel gerade wenn es darum geht, ein neues Produkt

00:48:03.180 –> 00:48:08.640

auf den markt zu bringen, was technologisch eine innovation darstellt, hat es auch etwas

00:48:08.640 –> 00:48:13.240

mit dem Zeitpunkt zu tun, ob die Menschheit „daf├╝r“ schon bereit ist.

00:48:13.240 –> 00:48:18.040

Das hei├čt, es kann sein, dass es eine gute Idee ist, etwas ist, was vielleicht in zehn

00:48:18.040 –> 00:48:23.440

Jahren angenommen wird, aber heute noch nicht der Bedarf erkannt wird oder die Akzeptanz

00:48:23.440 –> 00:48:27.420

eben noch nicht da ist und deswegen ein solches Produkt, wenn es zu fr├╝h auf den

00:48:27.420 –> 00:48:32.740

markt gef├╝hrt wird, m├Âglicherweise eben auch in der marktdurchdringung eben

00:48:32.740 –> 00:48:37.740

scheitert. Nicht, weil die Idee per se schlecht ist, sondern weil der Zeitpunkt

00:48:37.740 –> 00:48:43.000

in Anf├╝hrungsstrichen f├╝r die Akzeptanz noch nicht reif ist. Und daf├╝r

00:48:43.000 –> 00:48:47.140

gibt es viele, viele Beispiele in der Technologie, wo man das sehen kann und

00:48:47.140 –> 00:48:52.900

verfolgen kann, dass ja bestimmte Startups, sage ich jetzt mal, die

00:48:52.900 –> 00:48:56.780

die bestimmte produkte auf den markt gebracht haben oder ideen auf den markt gebracht haben,

00:48:56.780 –> 00:49:01.300

eben nicht angenommen wurden, aber dann einige Jahre sp├Ąter dann doch, vielleicht in einer

00:49:01.300 –> 00:49:05.220

leicht abgewandelten Form, aber es liegt da nicht an der abgewandelten Form an der Stelle,

00:49:05.220 –> 00:49:10.420

sondern h├Ąufig auch nur daran, dass das erste Start-up, was damit rausgegangen ist, quasi

00:49:10.420 –> 00:49:12.380

zu fr├╝h damit rausgegangen ist.

00:49:12.380 –> 00:49:16.300

Und das ist sehr, sehr spannend, das eben hier zu beobachten und zu sehen.

00:49:16.300 –> 00:49:20.260

Das hei├čt, auch hier kommen weitere Aspekte mit dazu, die es zu ber├╝cksichtigen gilt.

00:49:20.260 –> 00:49:26.580

also marktforschung an der stelle spielt eine wichtige rolle, eben wirklich auch zu gucken,

00:49:26.580 –> 00:49:27.580

wo stehen wir.

00:49:27.580 –> 00:49:31.100

Und hier haben wir dann auch diesen Aspekt mit drin, der Mensch.

00:49:31.100 –> 00:49:33.540

Und das ist halt ein Gap, der hier entsteht.

00:49:33.540 –> 00:49:39.100

Auf der einen Seite haben wir neuere Technologien, die in einer wahnsinnigen Geschwindigkeit

00:49:39.100 –> 00:49:41.980

voranschreiten, also was da eben auch m├Âglich ist.

00:49:41.980 –> 00:49:49.420

Und auf der anderen Seite haben wir eben uns Menschen, die halt in Bezug auf Ver├Ąnderungen

00:49:49.420 –> 00:49:54.620

gewisserma├čen, wenn sie keinen Nutzen darin sehen oder ├ähnliches, ja auch ver├Ąnderungsresistent

00:49:54.620 –> 00:50:00.580

zun├Ąchst erst mal sind. Das hei├čt, hier auch Verhaltens├Ąnderungen, Einstellungen,

00:50:00.580 –> 00:50:06.100

Haltungen zu Themen und so weiter auch teilweise deutlich l├Ąnger braucht, hier Ver├Ąnderungen

00:50:06.100 –> 00:50:11.620

zu initiieren, als die Technologie, wenn wir uns die Geschwindigkeit der Entwicklung in

00:50:11.620 –> 00:50:17.700

der Technologie anschauen und das sozusagen ein St├╝ck weit auch zusammenzuf├╝hren. Und

00:50:17.700 –> 00:50:22.540

wird dann aus meiner Sicht deutlich, dass es eben auch eine entsprechende Begleitung dessen braucht,

00:50:22.540 –> 00:50:29.900

weil das eben auch nicht von alleine funktioniert. Und dann wird deutlich aus meiner Sicht, dass es

00:50:29.900 –> 00:50:34.820

eben auch nicht die eine L├Âsung ist, sondern dass es hier verschiedene Komponenten sind,

00:50:34.820 –> 00:50:41.460

die man zusammenf├╝hren kann. Und entsprechend, wenn verschiedene Komponenten zusammengef├╝hrt

00:50:41.460 –> 00:50:47.460

werden, dann in der Gesamtheit betrachtet auch wieder eine Hebelwirkung entsteht. Also wir haben

00:50:47.460 –> 00:50:51.260

zum Beispiel, um deutlich zu machen, was ich damit sagen will, wir haben zum Beispiel vorhin

00:50:51.260 –> 00:50:56.860

von Storytelling gesprochen. Nur mit Storytelling oder ausschlie├člich mit Storytelling wird

00:50:56.860 –> 00:51:02.660

es nicht funktionieren. Aber wenn wir auf der anderen Seite Storytelling sinnvoll und

00:51:02.660 –> 00:51:06.220

clever nutzen, in Anf├╝hrungsstrichen, auf welcher Ebene auch immer, auf verschiedenen

00:51:06.220 –> 00:51:12.980

Ebenen sehr gerne auch, dann ist das sozusagen eine Variante. Wenn auf der anderen Seite

00:51:12.980 –> 00:51:17.620

zum Beispiel Begleitung stattfindet, dann haben wir einen zweiten Weg.

00:51:17.620 –> 00:51:21.380

wenn marktforschung hinzugef├╝hrt wird, haben wir einen dritten weg.

00:51:21.380 –> 00:51:25.540

Und das nicht als losgel├Âste Wege, also jetzt k├Ânnen wir Punkt, Punkt, Punkt machen und

00:51:25.540 –> 00:51:27.180

ganz viele weitere Bereiche aufmachen.

00:51:27.180 –> 00:51:34.060

Und wenn wir diese M├Âglichkeiten nicht als einzelne losgel├Âste voneinander betrachten,

00:51:34.060 –> 00:51:40.100

sondern als Gesamtheit zusammenf├╝hren, dann bekommen wir aus meiner Sicht auch erst eine

00:51:40.100 –> 00:51:44.180

gewisse hebelwirkung im ergebnis. Marc, was sagst du denn dazu?

00:51:44.180 –> 00:51:48.200

Dann m├Âchte ich zu, du hast gerade den Begriff Storytelling noch mal erw├Ąhnt,

00:51:48.200 –> 00:51:50.840

und dann m├Âchte ich noch einen zweiten Begriff gegen├╝berstellen, weil das ist

00:51:50.840 –> 00:51:55.560

f├╝r mich die Praxis. Storytelling ist das eine, und da wir Menschen sind und

00:51:55.560 –> 00:51:58.800

mit anderen Menschen zu tun haben, ist Brandfeuertechnik die andere. Und

00:51:58.800 –> 00:52:01.920

Brandfeuertechnik ist die, in dem du sagst, ich habe vielleicht ein

00:52:01.920 –> 00:52:04.520

Elektromobil und das ist ja umweltfreundlich und ich einfach

00:52:04.520 –> 00:52:07.920

behaupte, naja, wie sieht es aus mit dem Recycling? Oder mir jemand sagt, ich habe

00:52:07.920 –> 00:52:12.240

in China eine Maschine gekauft, die ist ja viel billiger. Brandfeuertechnik w├Ąre, wenn ich sage,

00:52:12.240 –> 00:52:15.600

naja, dann lass die mal reparieren. Da musst du aber ein paar Monate warten, bis du den Ersatz

00:52:15.600 –> 00:52:22.160

da hast. Und dann bin ich wieder beim Thema Bildung und Kommunikation, dass wir uns dieser

00:52:22.160 –> 00:52:26.920

Prozesse bewusst sind, wenn wir Menschen zuh├Âren, ob das jetzt jemand ist, der ein Storytelling

00:52:26.920 –> 00:52:31.440

macht, weil er ein Produkt anpreisen will, dass wir pr├╝fen, was hat das f├╝r mich f├╝r einen Vorteil,

00:52:31.440 –> 00:52:35.200

was hat das f├╝r die Gesellschaft f├╝r einen Vorteil. Genauso gut auf die Antworten zu achten,

00:52:35.200 –> 00:52:37.040

Ist das jetzt eine Brandfeuertechnik?

00:52:37.040 –> 00:52:38.680

Aus welcher Richtung kommt der?

00:52:38.680 –> 00:52:41.000

Haut der nur einfach irgendwelche Argumente raus?

00:52:41.000 –> 00:52:44.640

Und diese Brandfeuertechnik finde ich an mir auch selbst ziemlich bedenklich,

00:52:44.640 –> 00:52:47.280

weil sie ihren Effekt erzielt, weil sie Emotionen weckt.

00:52:47.280 –> 00:52:49.840

Und wenn ich die Fakten und Daten nicht pr├╝fen kann,

00:52:49.840 –> 00:52:51.280

weil ich kein Spezialist bin,

00:52:51.280 –> 00:52:54.240

dann fehlen mir manchmal auf komplexe Themen wieder die Antwort.

00:52:54.240 –> 00:53:00.000

Ja, und da sind wir ja bei dem Punkt,

00:53:00.000 –> 00:53:02.560

dass wir auch festgestellt haben,

00:53:02.560 –> 00:53:04.840

bei vielen Themen ist es ja schon so,

00:53:04.920 –> 00:53:09.520

dass wir immer wieder auch selbst in die Pr├╝fung hineingehen m├╝ssten,

00:53:09.520 –> 00:53:12.320

sozusagen unabh├Ąngig davon, ob wir Experten sind oder nicht.

00:53:12.320 –> 00:53:16.120

Also auch bei Nachrichten, die wir konsumieren,

00:53:16.120 –> 00:53:18.920

in Anf├╝hrungsstrichen nicht nur zu konsumieren,

00:53:18.920 –> 00:53:21.120

sondern immer wieder auch die Quellen zu ├╝berpr├╝fen,

00:53:21.120 –> 00:53:22.320

immer wieder auch reinzuschauen.

00:53:22.320 –> 00:53:25.120

Und das macht es nat├╝rlich auch nicht einfacher.

00:53:25.120 –> 00:53:28.720

Aber zumindest die F├Ąhigkeit, und da sind wir ja auch wieder bei der,

00:53:28.720 –> 00:53:31.320

um diese Selbstwirksamkeit herzustellen,

00:53:31.320 –> 00:53:32.920

da sind wir wieder bei diesem Bildungsaspekt,

00:53:32.920 –> 00:53:38.880

eben zumindest erst mal auch erlernt zu haben, wie mache ich das denn ├╝berhaupt?

00:53:38.880 –> 00:53:45.920

Also ├╝berhaupt die F├Ąhigkeit zu besitzen oder zu bekommen, in eine Pr├╝fung zu gehen,

00:53:45.920 –> 00:53:50.800

wenn es denn etwas ist, wo ich das Gef├╝hl habe, so jetzt habe ich das zwar irgendwo gelesen,

00:53:50.800 –> 00:53:56.040

aber was bedeutet das denn eigentlich? Und da wird deutlich, wie wichtig eben auch dieser

00:53:56.040 –> 00:53:59.720

Bildungskontext wieder an der Stelle ist, also Menschen auch dazu zu bef├Ąhigen,

00:53:59.720 –> 00:54:05.480

├╝berhaupt in die Lage versetzt zu werden, gewisse Dinge auch ├╝berpr├╝fen zu k├Ânnen.

00:54:05.480 –> 00:54:11.200

Ob Sie das dann im Einzelfall f├╝r das einzelne Thema machen oder ob Sie das bei dem n├Ąchsten

00:54:11.200 –> 00:54:16.520

Thema wieder machen, das werden wir dann sozusagen nicht beeinflussen k├Ânnen an der Stelle,

00:54:16.520 –> 00:54:21.960

sondern das muss ja dann auch in der Eigenverantwortung liegen. Aber zumindest den Rahmen entsprechend

00:54:21.960 –> 00:54:27.040

zu setzen, dass eine entsprechende ├ťberpr├╝fung bis zu einem gewissen Grad, das bedeutet nicht,

00:54:27.040 –> 00:54:31.240

sich immer alles aufl├Âsen kann oder immer eine Antwort auf alles finden werde, aber

00:54:31.240 –> 00:54:36.160

in die Lage versetzt zu werden im Sinne der Selbstbestimmung und Selbstwirksamkeit und

00:54:36.160 –> 00:54:40.520

Selbstbestimmung auch nicht nur als Individuum gesehen, sondern auch als eine gemeinschaftlich

00:54:40.520 –> 00:54:45.440

gedachte Selbstbestimmung an der Stelle. Auch dar├╝ber hatten wir schon mal gesprochen,

00:54:45.440 –> 00:54:54.920

dass ich eben hier solche Rahmen sozusagen aufsetzen darf als Land, als Politik, als

00:54:54.920 –> 00:55:03.640

Bildungsorientierung, dass ├╝berhaupt erst mal die M├Âglichkeit schafft, dass das ├╝berhaupt

00:55:03.640 –> 00:55:05.800

auch machbar wird.

00:55:05.800 –> 00:55:09.360

Sonst habe ich nur die Brandfeuertechnik.

00:55:09.360 –> 00:55:13.120

Die wird ├╝brigens auch nicht vermieden werden, die wird es trotzdem irgendwo geben.

00:55:13.120 –> 00:55:19.400

Aber wie der Umgang des Menschen damit ist, ob ich einfach das konsumiere und darauf emotional

00:55:19.400 –> 00:55:26.520

reagiere oder ob ich eben auf eine Art und Weise begleitet wurde, die mir erm├Âglicht,

00:55:26.520 –> 00:55:31.640

sozusagen hier kritisch zu hinterfragen, kritisch drauf zu blicken, ein gewisses Verst├Ąndnis

00:55:31.640 –> 00:55:36.640

f├╝r zu haben, in die Recherche einzusteigen und zu wissen, wie kann ich denn hier ├╝berhaupt

00:55:36.640 –> 00:55:39.080

recherchieren und so weiter.

00:55:39.080 –> 00:55:44.160

Diesen Rahmen meine ich, dass der zun├Ąchst erst mal auch er├Âffnet werden darf und muss

00:55:44.160 –> 00:55:47.920

an der Stelle, weil ich das sonst gar nicht damit umgehen kann.

00:55:47.920 –> 00:55:50.320

Marc, magst du da nochmal anschlie├čen?

00:55:50.320 –> 00:55:53.400

Beziehungsweise dann k├Ânnen wir auch mit Blick auf die Zeit gerne auch schon

00:55:53.400 –> 00:55:56.600

das Abschlusswort mit aufgreifen.

00:55:56.600 –> 00:56:00.920

Ja, mein Abschlusswort ist, dass ich total gespannt und neugierig

00:56:00.920 –> 00:56:04.360

in die Zukunft schaue und jeder, der in der Familie oder im Freundeskreis

00:56:04.360 –> 00:56:07.480

mit Krebs zu tun hat, also meine Einstellung ist, dass ich denke,

00:56:07.480 –> 00:56:10.800

dass in der Medizin, dass es unglaubliche Fortschritte geben wird in der Behandlung.

00:56:10.800 –> 00:56:14.720

Sachen, an die ich mir noch nicht in meinen k├╝hnsten Tr├Ąumen vorstellen kann.

00:56:14.720 –> 00:56:16.680

Das w├╝nsche ich mir f├╝r mich pers├Ânlich.

00:56:16.680 –> 00:56:21.560

f├╝r Marc h├Ątte das einen gr├Â├čeren Mehrwert, wenn ich wei├č, dass niemand mehr sein Kind

00:56:21.560 –> 00:56:26.400

verliert oder sein Partner an Krebs als ein Roboter, der mir einen Kaffee bringt.

00:56:26.400 –> 00:56:29.680

Solange ich beweglich bin, hole ich mir meinen Kaffee sehr, sehr gerne noch selber.

00:56:29.680 –> 00:56:32.960

Ja, vielen, vielen lieben Dank.

00:56:32.960 –> 00:56:37.680

Und hier macht es ja auch nochmal deutlich, dass eben alles in Anf├╝hrungsstrichen,

00:56:37.680 –> 00:56:41.040

genauso wie es Nachteile mit sich bringt, eben auch Vorteile hat.

00:56:41.040 –> 00:56:47.100

Und dadurch, dass wir vom Gehirn her in Anf├╝hrungsstrichen ja vor dem

00:56:47.100 –> 00:56:51.860

Hintergrund der Existenzsicherung sozusagen oder automatisch in die

00:56:51.860 –> 00:56:57.720

Richtung denken, was in welchen Bez├╝gen, in welchem Kontext bedroht mich

00:56:57.720 –> 00:57:01.980

etwas, ist eine ganz menschliche Reaktion. Und deswegen immer wieder auch ganz

00:57:01.980 –> 00:57:06.160

bewusst eben die Chancen nicht auszublenden, auf der einen Seite auf die

00:57:06.160 –> 00:57:11.320

Chancen zu schauen, um unseren Fokus auch darauf zu legen und gleichzeitig eben

00:57:11.320 –> 00:57:16.140

aber auch berechtigte Sorgen in Anf├╝hrungsstrichen nicht einfach weg zu

00:57:16.140 –> 00:57:20.600

fegen oder weg zu wischen, sondern hier auch eben verantwortungsvoll drauf zu

00:57:20.600 –> 00:57:26.160

blicken und zu gucken, wie kann man denn hier auch L├Âsungen finden, wohl wissend,

00:57:26.160 –> 00:57:29.880

dass es keine abschlie├čende L├Âsung sein wird. Das hei├čt, das Thema, die

00:57:29.880 –> 00:57:36.560

Themengebiete und auch Ethik letztendlich ist an der Stelle komplex und wir werden

00:57:36.560 –> 00:57:43.720

die Komplexit├Ąt weder durch Regulierung oder sonstiges einfach sozusagen

00:57:43.720 –> 00:57:48.240

runterschrauben k├Ânnen, also eine gewisse Komplexit├Ąt bleibt. Deswegen ist es

00:57:48.240 –> 00:57:54.040

erforderlich, hier auch immer wieder in Anf├╝hrungsstrichen agil zu sein und ja,

00:57:54.040 –> 00:58:00.400

neue Themen aufzugreifen, m├Âglicherweise auch schnell aufzugreifen, dann auf der

00:58:00.400 –> 00:58:06.000

einen Seite Raum f├╝r Diskurse zu geben, aber dann auch nicht bis ins Unendliche

00:58:06.000 –> 00:58:11.040

zu diskutieren, sondern hier eben auch Entscheidungen zu treffen,

00:58:11.040 –> 00:58:14.840

wohl wissend, dass es keine abschlie├čende Entscheidung sein wird,

00:58:14.840 –> 00:58:19.120

sondern dass es hier eben dann auch entsprechend wieder kritisch zu

00:58:19.120 –> 00:58:25.060

hinterfragen ist regelm├Ą├čig und eben auch wieder Anpassungen erforderlich

00:58:25.060 –> 00:58:32.140

werden und das ist eben insofern dieser Komplexit├Ąt auch zu versuchen,

00:58:32.140 –> 00:58:37.180

ein St├╝ck weit durch den Umgang damit auch gerecht zu werden. Also ich denke,

00:58:37.180 –> 00:58:41.740

das sind ganz viele Aspekte, die hier heute zusammengekommen sind und ich bin

00:58:41.740 –> 00:58:45.020

mal gespannt, wie es dann morgen weitergeht. Da gucken wir uns noch mal

00:58:45.020 –> 00:58:53.180

einen Bereich an, und zwar Kunst und Kultur und schauen uns an, wie ver├Ąndern Technologien

00:58:53.180 –> 00:58:59.620

auch den Bereich Kunst und Kultur. Auch hier passiert einiges und wird auch relativ deutlich

00:58:59.620 –> 00:59:05.340

machen, dass es auch viel mit Haltung, Denke zu tun hat, unabh├Ąngig davon, ob wir selbst

00:59:05.340 –> 00:59:11.260

aus Kunst und Kultur kommen oder ob wir zu den Personen geh├Âren, die eine gewisse Vorstellung

00:59:11.260 –> 00:59:16.260

von Kunst und Kultur an der Stelle haben und auch die Einfl├╝sse von Technologien, die

00:59:16.260 –> 00:59:21.940

hier jetzt das eine oder andere ver├Ąndern, wo durchaus auch sehr interessante Diskussionen

00:59:21.940 –> 00:59:27.000

aufkommen. Und da bin ich total gespannt, mit euch gemeinsam auf diesen Bereich morgen

00:59:27.000 –> 00:59:31.180

noch mal zu schauen. Insofern seid ihr ganz, ganz herzlich eingeladen, morgen um 8 Uhr

00:59:31.180 –> 00:59:36.940

wieder mit dabei zu sein und in diesen Austausch einzusteigen mit dem Raumtitel „Technologien

00:59:36.940 –> 00:59:42.700

Kunst und Kultur mit der Fragestellung „Wie ver├Ąndern Technologien Kunst und Kultur?“ hier

00:59:42.700 –> 00:59:47.900

gemeinsam in die Reflexion einzusteigen und mal zu schauen, in welche Richtung sich der Raum dann

00:59:47.900 –> 00:59:52.660

gemeinsam auch entwickelt. In diesem Sinne vielen, vielen lieben Dank f├╝rs Mitmachen, f├╝r die tollen

00:59:52.660 –> 00:59:57.220

Beitr├Ąge, f├╝r die tollen Beispiele, die wirklich auch diese Komplexit├Ąt heute aufgemacht haben,

00:59:57.220 –> 01:00:03.700

da gezeigt haben, wie schwierig es hier auch ist, wirklich L├Âsungen zu finden. Und ja, ich w├╝nsche

01:00:03.700 –> 01:00:08.940

euch einen wundervollen Tag und freue mich auf morgen. In diesem Sinne bis dahin. Ciao.

3 Mythen entlarvt - Wenn die Wissenschaft Wissen schafft! | Dr. Yasemin Yazan

Wenn Wissenschaft Wissen schafft!

Leider gibt es auf dem Markt sehr viel Halbwissen. Sei es, weil z. B. Forschungsergebnisse falsch interpretiert oder falsche Kausalit├Ąten hergestellt werden oder ├ťbertragungen in andere Kontexte stattfinden, die gar nicht Untersuchungsgegenstand waren.

Wir greifen 3 Mythen auf und zeigen, was die Wissenschaft schon l├Ąngst wei├č:

- Warum die Bed├╝rfnispyramide von Maslow keine zuverl├Ąssige Grundlage f├╝r Motivation ist

- Warum Pers├Ânlichkeitstests als Fundament f├╝r Personalentscheidungen fragw├╝rdig sind

- Warum es eine Quote als wirksames Mittel gegen Unconscious Bias braucht

Datenschutz

Einverst├Ąndniserkl├Ąrung

Herzlichen Gl├╝ckwunsch - Dein Download erwartet dich in deinem Mail-Postfach!