Select Page

Gehirnfutter f├╝r Pioniergeister: Wie kann ein ethisch verantwortungsvoller Einsatz neuer Technologien aussehen? Das ist die Fragestellung mit der wir uns in Raum #879 des Deep Talk Clubs unter dem Dachthema “Pioniergeist mit Hirn” befassen. H├Âre selbst, welche Beispiele aufgegriffen wurden und welche Perspektiven im Dialog entstanden sind…

Transkription: ­čçę­č笭čçĘ­čçş­č玭čç╣ #879 Ethik & Technologien | Von Dr. Yasemin Yazan

00:00:00.000 –> 00:00:04.000

Einen wundersch├Ânen guten Morgen w├╝nsche ich.

00:00:04.000 –> 00:00:08.000

Ja, wir sprechen heute ├╝ber Ethik und Technologien.

00:00:08.000 –> 00:00:12.000

Und wir haben ja in den vergangenen Tagen, Wochen

00:00:12.000 –> 00:00:16.000

verschiedene Bereiche unter dem Dach Pioniergeist mit Hirn

00:00:16.000 –> 00:00:20.000

aufgemacht und uns verschiedene Technologien auch angesehen.

00:00:20.000 –> 00:00:24.000

Und heute m├Âchte ich gerne mal

00:00:24.000 –> 00:00:28.000

mit euch diesen ethischen Aspekt aufgreifen im Zusammenhang mit den

00:00:28.000 –> 00:00:33.360

Technologien, wie kann ein ethisch verantwortungsvoller Einsatz neuer

00:00:33.360 –> 00:00:37.920

Technologien aussehen? Darum soll es heute gemeinsam gehen. Das hei├čt, wir

00:00:37.920 –> 00:00:42.520

haben ja festgestellt, ob das jetzt Technologien sind oder andere Themen.

00:00:42.520 –> 00:00:47.840

Immer wieder kommen wir darauf zur├╝ck, dass wir feststellen, im Grunde genommen

00:00:47.840 –> 00:00:53.240

ist es in diesem Fall jetzt nicht die Technologie, die per se gut oder schlecht

00:00:53.240 –> 00:00:57.880

ist, sondern hat ja auch sehr viel damit zu tun, wie das eben von Menschen

00:00:57.880 –> 00:01:04.000

auch genutzt oder eingesetzt wird. Das hei├čt, da gibt es nat├╝rlich auch M├Âglichkeiten des

00:01:04.000 –> 00:01:10.600

Missbrauchs etc. Und dementsprechend macht es auch mal Sinn, gemeinsam dar├╝ber nachzudenken

00:01:10.600 –> 00:01:16.600

oder auch in den Austausch zu kommen, um mal zu ├╝berlegen, wie lie├če sich denn das eine oder

00:01:16.600 –> 00:01:25.760

andere eben auch vielleicht, wei├č ich nicht, Regulierungen, waren ja zum einen so Aspekte,

00:01:25.760 –> 00:01:31.600

die immer wieder auch aufgekommen sind. Aber m├Âglicherweise gibt es eben nicht nur das

00:01:31.600 –> 00:01:35.880

Regulieren von au├čen, von einer zentralen Stelle, sondern vielleicht gibt es auch andere Alternativen.

00:01:35.880 –> 00:01:42.760

Also hier mal zu gucken, welche M├Âglichkeiten gibt es denn hier im Kontext mit der ethischen

00:01:42.760 –> 00:01:51.320

Betrachtung, um das eine oder andere in die positive Richtung zu lenken, in Anf├╝hrungsstrichen

00:01:51.320 –> 00:01:56.160

beziehungsweise sicherzustellen, kann man es ├╝berhaupt sicherstellen, dass es eben

00:01:56.160 –> 00:02:00.600

keinen Missbrauch gibt oder weniger Missbrauch gibt, um das vielleicht auch

00:02:00.600 –> 00:02:04.200

noch ein bisschen einzugrenzen und nicht ganz extrem zu formulieren.

00:02:04.200 –> 00:02:07.680

Genau und in diesem Sinne seid ihr ganz ganz herzlich eingeladen, heute auch

00:02:07.680 –> 00:02:12.280

wieder mit dazu zu kommen und ja lasst uns einfach mal erste Impulse

00:02:12.280 –> 00:02:16.640

zusammenf├╝hren, aufgreifen. Vielleicht gibt es ja auch irgendwelche Beispiele, an

00:02:16.640 –> 00:02:19.840

denen man eben auch hier Vergleiche aufmachen kann und sagen kann, hier

00:02:19.840 –> 00:02:24.860

k├Ânnen diese sich ja das eine oder andere vielleicht auch ├╝bertragen, also im Sinne von

00:02:24.860 –> 00:02:29.920

transferieren, adaptieren oder ├Ąhnliches, also dass wir einfach mal verschiedene Gedanken und

00:02:29.920 –> 00:02:36.040

Impulse aufgreifen. Und denkt bitte daran, auch heute, der Raum wird ├╝ber die gesamte Zeit

00:02:36.040 –> 00:02:41.240

aufgezeichnet. Wer mit dazu kommt, ist automatisch damit einverstanden, dass das sp├Ąter auch

00:02:41.240 –> 00:02:46.520

ver├Âffentlicht wird. Und wir haben drei kleine Raumregeln. Einmal ein Profilfoto, auf dem ihr

00:02:46.520 –> 00:02:50.040

klar zu erkennen seit vor und nach Namen und mindestens Einsatz in der Bio.

00:02:50.040 –> 00:02:53.360

Wer das aus irgendwelchen Gr├╝nden nicht m├Âchte, ist herzlich eingeladen, einfach

00:02:53.360 –> 00:02:58.680

den Chat zu nutzen, hier verschiedene Gedanken, Fragen oder Impulse mit reinzugeben,

00:02:58.680 –> 00:03:02.800

sodass wir es dann im Laufe des Raumes dann auch mit aufgreifen k├Ânnen.

00:03:02.800 –> 00:03:05.680

Ja, und damit m├Âchte ich dann gerne auch

00:03:05.680 –> 00:03:08.200

Marc an meiner Seite begr├╝├čen.

00:03:08.200 –> 00:03:09.880

Einen wundersch├Ânen guten Morgen, lieber Marc.

00:03:09.880 –> 00:03:12.400

Was sagst du denn zu dem Thema?

00:03:12.400 –> 00:03:15.640

Guten Morgen in die Runde und einen guten Wochenstart f├╝r alle.

00:03:16.120 –> 00:03:20.440

Ich kn├╝pfe mal an das Autorenvorst├╝ck am Sonntag, Storytelling,

00:03:20.440 –> 00:03:22.480

und ich lade euch auf ein Gedankenspiel an.

00:03:22.480 –> 00:03:26.040

Mein Thema ist Gentechnologie, und der Marc ist jetzt Politiker.

00:03:26.040 –> 00:03:28.280

Und ich wei├č, dass alle neuen Technologien,

00:03:28.280 –> 00:03:31.840

eben auch die Gentechnologie, bei den einen Menschen ├ängste ausl├Âsen,

00:03:31.840 –> 00:03:34.240

und bei den anderen Menschen, naja, Hoffnung.

00:03:34.240 –> 00:03:36.320

Und wie du schon gesagt hast, positive Aspekte.

00:03:36.320 –> 00:03:40.520

Und ich m├Âchte das jetzt mal als negatives Moment nutzen,

00:03:40.520 –> 00:03:43.520

indem ich sage, oh, gentechnisch, ich wei├č, viele Menschen haben Angst.

00:03:43.680 –> 00:03:46.840

Und ich w├╝rde meine Wahl jetzt, wenn ich es negativ nutzen w├╝rde,

00:03:46.840 –> 00:03:51.480

so nutzen, dass ich sagen w├╝rde, in China, Leute, da nutzen die Gentechnik ein f├╝r Babys.

00:03:51.480 –> 00:03:53.960

Um Gottes Willen, wird ja der eine oder andere sagen.

00:03:53.960 –> 00:03:56.120

Ja. Und wisst ihr, was man damit machen kann?

00:03:56.120 –> 00:03:59.520

Das hei├čt, Eltern bestimmen in Zukunft, ob die Augen vom Baby blau werden,

00:03:59.520 –> 00:04:01.560

ob es blonde Haare hat und und und.

00:04:01.560 –> 00:04:03.560

Und wenn ihr mich w├Ąhlt, bin ich absolut dagegen.

00:04:03.560 –> 00:04:05.160

Nee, das kann ich nachvollziehen.

00:04:05.160 –> 00:04:07.120

Sind wir auch. Finde ich gut, dass du dich da einsetzt.

00:04:07.120 –> 00:04:10.600

Und das Spannende ist dann, ich habe die Fakten total verdreht.

00:04:10.600 –> 00:04:12.560

In China setzt man Gentechnik ein.

00:04:12.600 –> 00:04:15.200

Ja, was da gemacht worden ist vor drei Jahren.

00:04:15.200 –> 00:04:18.800

Man hat mit der CRISPR-Technologie drei M├Ądchen…

00:04:18.800 –> 00:04:22.520

Also man hat das gentechnisch behandelt, die Embryos.

00:04:22.520 –> 00:04:25.440

Und der Hintergrund dessen war aber nicht,

00:04:25.440 –> 00:04:27.840

dass die jetzt blaue Haare haben oder blaue Augen.

00:04:27.840 –> 00:04:30.680

Sondern der Hintergrund war durch eine Keimbehandlung

00:04:30.680 –> 00:04:33.320

ein Versuch zu starten, ob die drei M├Ądchen…

00:04:33.320 –> 00:04:36.360

In Zukunft, AIDS ist ja immer noch eine Krankheit, die da ist.

00:04:36.360 –> 00:04:39.240

Man stirbt zwar nicht sofort, man kann damit auch sehr lange leben.

00:04:39.400 –> 00:04:41.320

Trotzdem ist es eine gef├Ąhrliche Krankheit.

00:04:41.320 –> 00:04:45.160

Und der Hintergrund war einfach da, dass die Wissenschaftler gesagt haben

00:04:45.160 –> 00:04:47.080

und die Eltern sich dann auch entschieden haben,

00:04:47.080 –> 00:04:50.800

wenn ich mein Kind sch├╝tzen kann in Zukunft vor einer t├Âdlichen Krankheit,

00:04:50.800 –> 00:04:53.400

das hei├čt, keiner, kein Elternteil m├Âchte,

00:04:53.400 –> 00:04:55.800

dass ein Kind stirbt und dass dem ein Leid geschieht.

00:04:55.800 –> 00:04:57.920

Und wenn ich die Geschichte jetzt so verkaufe und sage,

00:04:57.920 –> 00:04:59.720

hey, mit dieser Gentechnologie,

00:04:59.720 –> 00:05:02.240

da kannst du sicherstellen, dass dein Kind vielleicht mal

00:05:02.240 –> 00:05:07.000

nicht an dem Krebs stirbt und vielleicht nicht an HIV erkrankt wird,

00:05:07.000 –> 00:05:08.680

dann wird man wahrscheinlich fiefi,

00:05:08.840 –> 00:05:12.240

dann hat man eine ganz, ganz andere Reaktion auf diese Technologie,

00:05:12.240 –> 00:05:15.000

je nachdem, welche Fakten man wegl├Ąsst und je nachdem,

00:05:15.000 –> 00:05:16.600

welche Story man dazu erz├Ąhlt.

00:05:16.600 –> 00:05:18.080

Das w├Ąre jetzt erstmal mal ein Einstieg.

00:05:18.080 –> 00:05:22.120

Ja, wunderbar. Vielen, vielen lieben Dank.

00:05:22.120 –> 00:05:26.040

Das hei├čt hier tats├Ąchlich das Storytelling entsprechend zu nutzen,

00:05:26.040 –> 00:05:31.920

um zu gucken, ob da eben Ängste geschürt werden,

00:05:31.920 –> 00:05:35.200

in Anf├╝hrungsstrichen, oder auch Zuversicht geschaffen wird.

00:05:35.200 –> 00:05:37.160

Nat├╝rlich k├Ânnte es dann trotzdem sein,

00:05:37.160 –> 00:05:41.720

dass es eben Menschen gibt, die das ethisch zum Beispiel bedenklich finden,

00:05:41.720 –> 00:05:45.200

dadurch, dass es hier eben um Gentechnologie geht und so weiter. Das

00:05:45.200 –> 00:05:49.280

hei├čt, man w├╝rde jetzt bei diesem konkreten Beispiel dadurch das nicht

00:05:49.280 –> 00:05:53.040

komplett aushebeln, sondern hier w├╝rden auch andere Diskussionen noch mal in

00:05:53.040 –> 00:05:57.080

diesem Zusammenhang entstehen, mit Sicherheit. Und dennoch ist das aber ein

00:05:57.080 –> 00:06:00.680

sch├Ânes Beispiel, um eben aufzuzeigen, dass es sehr unterschiedlich auch

00:06:00.680 –> 00:06:05.360

gelenkt werden kann an der Stelle. Die Frage ist allerdings in diesem

00:06:05.360 –> 00:06:11.520

Zusammenhang mit dem Storytelling. Wir hatten ja auch R├Ąume gemacht, in denen wir festgestellt

00:06:11.520 –> 00:06:19.240

haben, dass zum Beispiel Medien ja eben gerade deswegen aber auch bestimmte zum Beispiel

00:06:19.240 –> 00:06:27.080

angstsch├╝rende Sachen aufgreifen oder ja eben wegen der Klicks, um die es geht, eben

00:06:27.080 –> 00:06:33.160

entsprechende ├ťberschriften ausw├Ąhlen und so weiter, weil der Mensch ja schon dazu auch

00:06:33.160 –> 00:06:40.160

neigt, eben entsprechend darauf zu reagieren. Das hei├čt, in dem Moment, wo wir die M├Âglichkeit

00:06:40.160 –> 00:06:43.960

haben sozusagen mehr Klicks zu generieren oder ├Ąhnliches, und auch das hat eben eine

00:06:43.960 –> 00:06:49.760

Relevanz jetzt zum Beispiel im Zusammenhang von Medien. Also reicht das denn aus, dass

00:06:49.760 –> 00:06:56.880

man hier quasi diesen Ansatz hat, ich nutze beispielsweise Storytelling positiv, um Zuversicht

00:06:56.880 –> 00:07:01.040

und Neugierig zu machen und ├Ąhnliches, weil das w├╝rde ja auch bedeuten, dass an der einen

00:07:01.040 –> 00:07:09.040

oder anderen Stelle eben ja ein v├Âllig, v├Âllig anderer Ansatz pl├Âtzlich gew├Ąhlt werden w├╝rde.

00:07:09.040 –> 00:07:12.960

Wir hatten ja auch mal dar├╝ber gesprochen, dass es sowas wie positive Nachrichten zum

00:07:12.960 –> 00:07:16.720

Beispiel auf Social Media Kan├Ąlen oder so gibt, die durch die Decke auch geschossen

00:07:16.720 –> 00:07:21.120

sind, weil Menschen eben es leid waren, in Anf├╝hrungsstrichen immer nur oder fast ausschlie├člich

00:07:21.120 –> 00:07:25.800

negativ Nachrichten in den Medien zu lesen und haben hier eine eigene Initiative, aus

00:07:25.800 –> 00:07:28.000

eigener Initiative eben etwas gegr├╝ndet.

00:07:28.000 –> 00:07:33.560

Das funktioniert zwar auch ganz gut, aber das ist eben nur ein bestimmter Teil von Menschen,

00:07:33.560 –> 00:07:38.000

die das f├╝r sich nutzen oder die hier das cool finden und dem auch folgen.

00:07:38.000 –> 00:07:40.080

Andere haben das vielleicht gar nicht mitbekommen.

00:07:40.080 –> 00:07:45.960

Aber Storytelling ist ja nichts, gerade wenn wir in Richtung Medien gucken, wie lie├če

00:07:45.960 –> 00:07:50.160

sich denn sowas eben auch beeinflussen, in Anf├╝hrungsstrichen, dass hier nicht nach

00:07:50.160 –> 00:07:56.040

Klicks oder sonstigem agiert wird, um eben hier auch die eigene Finanzierung, sage ich

00:07:56.040 –> 00:08:00.720

jetzt mal sicherzustellen, die Reichweite sicherzustellen und so weiter und so fort,

00:08:00.720 –> 00:08:04.400

sondern eben auch hier in eine bestimmte Richtung auch zu lenken.

00:08:04.400 –> 00:08:06.960

Also das f├Ąnde ich auch nochmal so eine ganz spannende Frage.

00:08:06.960 –> 00:08:10.440

Das hei├čt, mit Storytelling kann man mit Sicherheit einiges erreichen.

00:08:10.440 –> 00:08:16.360

Einen Gleichklang hier hinzubekommen, dass es eher in die positive Richtung auch berichtet

00:08:16.360 –> 00:08:18.200

wird, gerade in den Medien.

00:08:18.200 –> 00:08:24.320

Da stellt sich die Frage, geht das ├╝berhaupt oder ist das einfach nur eine utopisch hoffnungsvoll

00:08:24.320 –> 00:08:32.480

vorgestellter Gedanke. Das f├Ąnde ich mal ganz spannend zu betrachten. Und wir hatten ja gestern

00:08:32.480 –> 00:08:37.400

auch schon dar├╝ber gesprochen, dass eben Storytelling auch gerade so, ja auch im politischen

00:08:37.400 –> 00:08:42.920

Kontext oder so anders eben auch eingesetzt werden k├Ânnte, um nicht irgendwie nur dar├╝ber zu

00:08:42.920 –> 00:08:49.120

diskutieren, was die Menschheit irgendwie machen m├╝sste oder sollte oder wie auch immer, sondern

00:08:49.120 –> 00:08:56.120

eben hier auch Lust zu sch├╝ren sozusagen oder Neugier zu sch├╝ren, mit Zuversicht auf

00:08:56.120 –> 00:08:57.880

gewisse Dinge zu schauen.

00:08:57.880 –> 00:09:02.400

Wobei nat├╝rlich auch hier trotzdem nochmal die Frage gestellt werden m├╝sste, ist es

00:09:02.400 –> 00:09:06.480

bei bestimmten Sachen ├╝berhaupt die Aufgabe der Politik, sich in Anf├╝hrungsstrichen hier

00:09:06.480 –> 00:09:07.480

einzumischen.

00:09:07.480 –> 00:09:11.240

Marc, magst du nochmal andocken an der Stelle bei meinen Gedanken?

00:09:11.240 –> 00:09:12.240

Ja, zwei Sachen.

00:09:12.240 –> 00:09:14.760

Das haben wir ja gerade aktuell mit der Politik.

00:09:14.760 –> 00:09:15.760

Das ist ein heikles Thema.

00:09:15.760 –> 00:09:19.120

Ich finde ja, die Politik hat die Aufgabe und ich komme immer wieder darauf zur├╝ck,

00:09:19.120 –> 00:09:24.000

Bildung und Aufkl├Ąrung. Und nur am Rande das Heizthema. Ich kann euch jetzt alle im Raum

00:09:24.000 –> 00:09:29.440

fragen, wer von euch ist f├╝r Umweltschutz? Dann gehen alle Finger hoch. Ich bin bestimmt der

00:09:29.440 –> 00:09:32.920

Meinung, dass 99 Prozent der Finger hochgehen, wenn man sagt, wer ist f├╝r ein gutes Klima?

00:09:32.920 –> 00:09:37.200

Wenn ich dann aber die Frage umdrehe und sage, ich bestimme in Zukunft, mit was du heizt,

00:09:37.200 –> 00:09:40.480

weil ich das vorgebe, weil du keine Ahnung hast und ich einfach die Ahnung habe,

00:09:40.480 –> 00:09:45.720

dann sprechen wir ├╝ber das gleiche Thema. Ich habe aber nicht aufgekl├Ąrt den Hintergrund,

00:09:45.720 –> 00:09:50.880

und und und und und das kann ich quasi mit jedem Thema so machen. Und Ethik und Technik, da habe

00:09:50.880 –> 00:09:54.240

ich auch noch ein Beispiel mitgebracht. Wir haben ja alle, das Automobil gibt es ja jetzt schon

00:09:54.240 –> 00:09:59.440

l├Ąngeren Zeitraum und wenn ich mich erinnere, das allererste Auto, was ich gehabt habe, mit dem bin

00:09:59.440 –> 00:10:03.640

ich gefahren und ich bin damit ziemlich gut durch die Nacht gekommen. Das hei├čt, das Licht ist heute

00:10:03.640 –> 00:10:07.480

besser, aber es hat mir gereicht durch die Nacht zu kommen. Damals hatte man noch Lampen und Lichter.

00:10:07.480 –> 00:10:12.120

Das bedeutet, wenn eine Lampe kaputt gegangen ist, bin ich zu einem Autoh├Ąndler gegangen und

00:10:12.120 –> 00:10:16.140

sagt, meine birne ist kaputt, dann sagte er vier mark oder vier, f├╝nf euro, dann hatte ich wieder

00:10:16.140 –> 00:10:20.400

Licht. Heute spricht man von Leuchteinheiten. Diese Leuchteinheiten haben nat├╝rlich auch,

00:10:20.400 –> 00:10:24.240

technisch haben die sich weiterentwickelt, es gibt Laserlicht, ganz ganz tolle Sachen,

00:10:24.240 –> 00:10:28.520

hat nat├╝rlich auch den Nachteil, dass man nichts mehr auswechseln kann. Und ich werde das nie

00:10:28.520 –> 00:10:33.320

vergessen, wie ich mal auf einer Messe war und mit jemandem im Auto sa├č, der in der Automobilindustrie

00:10:33.320 –> 00:10:37.200

gearbeitet hat und mir gesagt hat, naja, diese Leuchteinheiten sind nat├╝rlich auch, das ist

00:10:37.200 –> 00:10:41.760

ein technischer Fortschritt, aber gleichzeitig k├Ânnen wir damit auch mehr Geld verdienen.

00:10:41.760 –> 00:10:47.640

Denn wer schon mal eine Leuchteinheit f├╝rs Auto gekauft hat, wei├č, dass er mit 5, 6 Euro nicht mehr dabei ist,

00:10:47.640 –> 00:10:50.760

sondern mit 6 bis 7 oder 800 Euro, je nach Modell.

00:10:50.760 –> 00:10:52.760

Es ist ein technischer Fortschritt, ja.

00:10:52.760 –> 00:10:57.240

Diese technische Entwicklung hat aber auch dazu gef├╝hrt, mehr Geld zu generieren,

00:10:57.240 –> 00:10:59.720

weil ich die Ger├Ąte nicht mehr reparieren kann.

00:10:59.720 –> 00:11:04.640

Und im Zusammenhang mit Ethik und Technik, wir entwickeln uns technisch alle weiter,

00:11:04.640 –> 00:11:06.640

also mit den Smartphones, mit den Fernsehger├Ąten.

00:11:06.640 –> 00:11:10.960

Gleichzeitig hat aber die Industrie ein gro├čes Interesse, dass Ger├Ąte nicht repariert werden,

00:11:10.960 –> 00:11:14.160

weil ein neues Ger├Ąt mehr Geld bringt als eine Reparatur.

00:11:14.160 –> 00:11:20.040

Ja, vielen, vielen lieben Dank.

00:11:20.040 –> 00:11:22.760

Und hier stellt sich ja auch nochmal,

00:11:22.760 –> 00:11:25.360

weil du jetzt auch Bildung und so was mit aufgegriffen hast,

00:11:25.360 –> 00:11:28.800

auch die Fragestellung, da ist direkt bei mir der n├Ąchste Impuls aufgekommen,

00:11:28.800 –> 00:11:32.880

ja, auf verschiedenen Ebenen eben auch zu gucken, weil Storytelling

00:11:32.880 –> 00:11:36.240

ist ja dann zum Beispiel eine M├Âglichkeit

00:11:36.240 –> 00:11:38.320

auf der auf der einen Seite.

00:11:38.320 –> 00:11:42.280

Es gibt verschiedene M├Âglichkeiten, auch in Bezug auf Bildung, wenn wir diesen Bildungsbegriff

00:11:42.280 –> 00:11:43.800

nochmal aufgreifen.

00:11:43.800 –> 00:11:49.200

Da geht es ja um das Thema Selbstbestimmung und Selbstorganisation, Selbstwirksamkeit.

00:11:49.200 –> 00:11:56.160

Das hei├čt hier auch in eine gewisse Form der Begleitung reinzugehen, sprich ja nicht

00:11:56.160 –> 00:12:00.160

erst am Ende in Anf├╝hrungsstrichen irgendwo anzudocken, sondern eben auch, wenn wir zum

00:12:00.160 –> 00:12:03.840

Beispiel sehen, dass gerade jetzt Entwicklungen da sind und die sind ja nicht erst seit gestern

00:12:03.840 –> 00:12:04.840

da.

00:12:04.840 –> 00:12:07.240

Also gerade wenn wir so etwas wie Internet oder so etwas sehen, da lie├č sich ja auch

00:12:07.240 –> 00:12:12.040

schon in der Vergangenheit sehr, sehr viel abzeichnen, was da alles sich entwickelt,

00:12:12.040 –> 00:12:16.520

was da alles in Anf├╝hrungsstrichen kommt. Und ├╝ber die Zeit hinweg betrachtet, kommen

00:12:16.520 –> 00:12:22.120

ja immer weitere Aspekte auch hinzu. Das hei├čt, hier w├Ąre es ja zum Beispiel auch logisch

00:12:22.120 –> 00:12:28.840

und notwendig, gerade wenn wir auch so Diskussionen jetzt gerade, ich meine, bestimmte Bereiche,

00:12:28.840 –> 00:12:33.540

da hat man vielleicht nicht so den Einblick, da kennt sich vielleicht nicht jeder aus,

00:12:33.540 –> 00:12:38.540

in Anf├╝hrungsstrichen. Allerdings so Sachen wie jetzt zum Beispiel KI und die

00:12:38.540 –> 00:12:43.180

Chat GPT und sowas, das ist ja schon etwas, was wirklich in aller Munde auch

00:12:43.180 –> 00:12:46.980

angekommen ist. Das hei├čt ja auch in Schulen etc. oder von Lehrern auch

00:12:46.980 –> 00:12:51.380

diskutiert wird. Dementsprechend hier eben auch Ethik und Technologie auf die

00:12:51.380 –> 00:12:55.820

Art und Weise zu denken, eben hier relativ fr├╝h an der Schule zum Beispiel

00:12:55.820 –> 00:13:01.300

auch oder Kita-Schule und ├╝berall weiterf├╝hrend eben das Thema auch

00:13:01.300 –> 00:13:05.260

aufzugreifen und hier in eine Art

00:13:05.260 –> 00:13:07.100

Begleitung zu gehen und diese

00:13:07.100 –> 00:13:09.340

Kombination Ethik und

00:13:09.340 –> 00:13:12.900

Technologien eben aufzugreifen und hier

00:13:12.900 –> 00:13:15.220

dar├╝ber auch auf die auf eine

00:13:15.220 –> 00:13:17.500

entsprechende Art und Weise sozusagen

00:13:17.500 –> 00:13:21.420

sich an dieser Themen auch anzun├Ąhern,

00:13:21.420 –> 00:13:23.380

um ein Bewusstsein f├╝r die

00:13:23.380 –> 00:13:26.540

“ethische Nutzung” auch

00:13:26.540 –> 00:13:29.620

aufzugreifen. Damit mag ich

00:13:26.540 –> 00:13:31.980

gerne J├╝rgen zun├Ąchst erst mal mit in die Runde aufnehmen und dann k├Ânnen wir

00:13:31.980 –> 00:13:36.340

gerne auch noch mal Querbez├╝ge herstellen. Guten Morgen lieber J├╝rgen.

00:13:36.340 –> 00:13:43.260

Guten Morgen liebe Yasemin, guten Morgen lieber Marc und guten Morgen alle im Raum.

00:13:43.260 –> 00:13:52.140

Ich danke f├╝rs Aufgreifen, liebe Yasemin, und fand einen Teilbereich. Grunds├Ątzlich

00:13:52.140 –> 00:13:57.700

halte ich alle kommentare von Marc immer sehr aus dem leben gegriffen und

00:13:57.700 –> 00:14:04.180

deswegen zielf├╝hrend f├╝r unsere Themen, aber insbesondere dieses Beispiel mit der

00:14:04.180 –> 00:14:13.140

aktuellen Diskussion um das neue W├Ąrmegesetz oder wie hei├čt es da,

00:14:13.140 –> 00:14:18.420

da diese besondere Erd-…

00:14:18.420 –> 00:14:23.420

Ach, mir fehlt jetzt der konkrete Begriff.

00:14:23.420 –> 00:14:29.900

Ich w├╝rde das ganz gerne mal hernehmen, lieber Barack, dein Beispiel, das du ja gesagt hast

00:14:29.900 –> 00:14:39.300

und es verbunden hast mit dem Storytelling, dass wir bei den Begrifflichkeiten Ethik und

00:14:39.300 –> 00:14:47.220

Technologie, wenn wir mal von Ethik ausgehen, da ist eine der g├Ąngigen Definitionen ja,

00:14:47.220 –> 00:14:53.460

dass es das theoretische Konstrukt dessen ist, was als richtig und falsch,

00:14:53.460 –> 00:15:03.340

beziehungsweise als gut oder b├Âse bezeichnet wird. Bezogen auf die Verkn├╝pfung mit Technologie

00:15:03.340 –> 00:15:10.220

hei├čt das, die Ethik, wer auch immer sie definiert, komme ich auch kurz noch drauf,

00:15:10.220 –> 00:15:22.940

definiert, welche Technologien gut und b├Âse sind. Und in Bezug auf wer es definiert, sehe ich zwei

00:15:22.940 –> 00:15:31.660

Teilbereiche, ganz wesentlich in der Unterscheidung, auch von der Konsequenz. Einmal, was als ethisch

00:15:31.660 –> 00:15:41.200

von einer zum Beispiel politischen Instanz vom Gesetzgeber als ethisches Konstrukt und Vorgabe

00:15:41.200 –> 00:15:47.120

gesehen wird und auf der anderen Seite, was durchaus dem nicht entsprechen muss, was jeder

00:15:47.120 –> 00:15:57.280

Einzelne von uns f├╝r sich als seine Individualethik definiert hat. Die Ergebnisgr├Â├čen, die Umsetzungsformen

00:15:57.280 –> 00:16:08.000

aus Ethik. Das ist nach meinem Verst├Ąndnis die Moral. Also das, was wir dann im t├Ąglichen Umgang

00:16:08.000 –> 00:16:16.640

miteinander als gut und b├Âse, richtig und falsch empfinden und was wir entsprechend sanktionieren

00:16:16.640 –> 00:16:23.360

durch Beipflichten oder durch entsprechende Gegenreaktionen.

00:16:23.360 –> 00:16:29.680

Und auf der, das mag ich noch beitragen, dann bin ich auch wieder ruhig,

00:16:29.680 –> 00:16:35.200

auf der Ebene der institutionalisierten Verkn├╝pfung von Ethik und Technologie,

00:16:35.200 –> 00:16:43.160

da gibt es eine Instanz in der Bundesrepublik, die sich damit vehement besch├Ąftigt,

00:16:43.160 –> 00:16:46.160

Und zwar ist das der Ethikrat.

00:16:46.160 –> 00:17:01.160

Und der Ethikrat hat vor nicht an zu langer Zeit eine sehr interessante Publikation ├╝ber die Verkn├╝pfung von Ethik mit der k├╝nstlichen Intelligenz ver├Âffentlicht.

00:17:01.160 –> 00:17:05.160

Kann ich jedem nur empfehlen zum Lesen.

00:17:05.160 –> 00:17:10.020

deswegen, weil sehr viel Wert auf die

00:17:10.020 –> 00:17:12.040

Erbgrenzung und die

00:17:12.040 –> 00:17:15.360

Eindeutigkeit der Begrifflichkeiten

00:17:15.360 –> 00:17:19.960

gelegt wird. Vielen Dank f├╝rs Zuh├Âren und

00:17:19.960 –> 00:17:21.720

das soll mal mein Input sein.

00:17:21.720 –> 00:17:24.520

Ja wunderbar, vielen, vielen lieben Dank.

00:17:24.520 –> 00:17:29.160

Und ja, Marc, magst du hier direkt mit

00:17:29.160 –> 00:17:30.680

anschlie├čen an der Stelle? Ja, lieber J├╝rgen,

00:17:30.680 –> 00:17:32.560

vielen, vielen Dank f├╝r deinen Beitrag.

00:17:32.560 –> 00:17:34.600

Genau das ist das Interessante, dass

00:17:32.560 –> 00:17:37.160

dass du dich dann auch immer f├╝r mich auf die W├Ârter spezialisierst.

00:17:37.160 –> 00:17:39.920

Und das Thema ist halt so komplex.

00:17:39.920 –> 00:17:43.040

Und ich komme noch mal zur├╝ck auf das Thema Bildung.

00:17:43.040 –> 00:17:46.800

Und denke, dass wir viele Dinge noch gar nicht ├╝berschauen k├Ânnen.

00:17:46.800 –> 00:17:49.400

Ich h├Ątte gleich noch das Thema Robotik angesprochen.

00:17:49.400 –> 00:17:51.320

Und zwar gibt es ja dann auch Untersuchungen.

00:17:51.320 –> 00:17:53.480

Wie reagieren Menschen auf Roboter?

00:17:53.480 –> 00:17:56.880

Wie baut man eine Beziehung auf zwischen Mensch und Roboter?

00:17:56.880 –> 00:17:58.600

Will man das ├╝berhaupt aufbauen?

00:17:58.600 –> 00:18:00.360

Was passiert, wenn es Beziehungen gibt?

00:18:00.520 –> 00:18:04.120

Es gibt durchaus auch Untersuchungen oder gute Sachen.

00:18:04.120 –> 00:18:07.120

Man kann das gut betrachten. Die Einsamkeit wird zunehmen.

00:18:07.120 –> 00:18:09.000

Wir sind ├╝beralternde Bev├Âlkerung.

00:18:09.000 –> 00:18:11.280

Das hei├čt, viele von uns, das w├╝nsche ich niemandem,

00:18:11.280 –> 00:18:14.240

werden im Alter vielleicht alleine sein, weil der Partner stirbt.

00:18:14.240 –> 00:18:16.880

In anderen Kulturen ist es genauso.

00:18:16.880 –> 00:18:19.240

Und dann gibt es mittlerweile Roboterhunde.

00:18:19.240 –> 00:18:21.120

Und da gibt es Untersuchungen,

00:18:21.120 –> 00:18:23.880

dass der Mensch eine Beziehung zu diesem Roboter herstellen kann

00:18:23.880 –> 00:18:26.080

und dann irgendwann mal auch nicht mehr unterscheidet,

00:18:26.080 –> 00:18:28.840

ob das eine Maschine ist oder ein Mensch.

00:18:29.000 –> 00:18:32.080

Und es gibt Ideen, wie man die Computer so programmieren kann.

00:18:32.080 –> 00:18:34.000

Wir wissen, dass wir alle gef├╝hlsorientiert sind.

00:18:34.000 –> 00:18:36.200

Und es gibt Mechanismen, warum wir uns verlieben.

00:18:36.200 –> 00:18:38.440

Warum wir eine Beziehung zu jemandem herstellen,

00:18:38.440 –> 00:18:41.880

auch das kann man in der Maschine ganz genau so programmieren.

00:18:41.880 –> 00:18:45.640

Aber dann jetzt in die Zukunft zu gucken, was das f├╝r Konsequenzen hat.

00:18:45.640 –> 00:18:47.800

N├Ąmlich, was ich letzte Woche schon erw├Ąhnt habe,

00:18:47.800 –> 00:18:50.320

wenn ich jetzt eine Beziehung habe zu meinem Roboter

00:18:50.320 –> 00:18:52.040

und bei mir im Haus brennt es,

00:18:52.040 –> 00:18:55.600

und dann aber meinen Roboter rette, was jetzt vielleicht absurd klingt,

00:18:55.600 –> 00:18:58.600

aber ich habe eine Beziehung, und das w├╝rde mir viel zu lange dauern,

00:18:58.760 –> 00:19:03.400

einen n├Ąchsten Roboter wieder so lange zu haben, dass der genau das macht, was ich will,

00:19:03.400 –> 00:19:07.520

dass der genau auf mich abgestimmt ist. Und vielleicht entscheide ich mich dann in einem

00:19:07.520 –> 00:19:11.560

Krisenfall, meinen Roboter eher zu retten als meinen Nachbarn, den ich vielleicht eh

00:19:11.560 –> 00:19:17.000

nicht mag und so weiter. Und das, wie gesagt, da in die Zukunft zu gucken, da finde ich

00:19:17.000 –> 00:19:21.960

das gut, dass wir ein Ethiker haben, lieber J├╝rgen, weil da einfach Dinge auf uns zukommen,

00:19:21.960 –> 00:19:25.440

die wir momentan noch gar nicht durchdenken, weil die halt einfach noch nicht da sind.

00:19:25.440 –> 00:19:30.400

Und wenn sie dann da sind, dann ist es vielleicht zu sp├Ąt, sich dar├╝ber Gedanken zu machen,

00:19:30.400 –> 00:19:33.960

weil es dann immer schwieriger wird, nachfolgende Gesetze zu ├Ąndern.

00:19:33.960 –> 00:19:38.800

Ja, vielen, vielen lieben Dank.

00:19:38.800 –> 00:19:46.320

Und bei mir ist nochmal der Impuls aufgekommen, vielleicht auch getriggert durch die Begrifflichkeiten,

00:19:46.320 –> 00:19:52.680

die verwendet wurden in Bezug auf Ethik, was denn richtig und falsch bzw. gut und b├Âse

00:19:52.680 –> 00:19:59.240

ist im Kontext mit Technologien, da stellt sich mir die Frage, ob das denn ├╝berhaupt

00:19:59.240 –> 00:20:06.240

so klar definiert werden muss. Und dann daraus ergibt sich ja dann auf der einen Seite eben

00:20:06.240 –> 00:20:15.200

auf der Ebene des Ethikrates zum Beispiel etwas, was zum Beispiel in Anf├╝hrungsstrichen

00:20:15.200 –> 00:20:20.560

definiert oder vorgegeben wird und auf der anderen Seite eben diese individuelle Ebene.

00:20:20.560 –> 00:20:25.320

wenn wir jetzt noch mal anders uns

00:20:25.320 –> 00:20:27.640

ann├Ąhern an das Thema, n├Ąmlich nicht,

00:20:27.640 –> 00:20:29.080

dass irgendjemand definiert, egal von

00:20:29.080 –> 00:20:30.560

welcher Seite, auch individuell nicht

00:20:30.560 –> 00:20:32.560

definiert wird, was gut oder b├Âse ist,

00:20:32.560 –> 00:20:34.840

sondern in Anf├╝hrungsstrichen, wir haben

00:20:34.840 –> 00:20:38.520

ja festgestellt, dass im Grunde genommen

00:20:38.520 –> 00:20:40.520

nichts davon gut oder schlecht ist oder

00:20:40.520 –> 00:20:42.960

richtig oder falsch ist, sondern es ist

00:20:42.960 –> 00:20:45.120

ja immer die Perspektive, aus der

00:20:45.120 –> 00:20:48.320

das Ganze betrachtet wird und in

00:20:45.120 –> 00:20:51.880

Insofern hat es ja auch was damit zu tun, dass wir uns auch die Frage stellen k├Ânnen.

00:20:51.880 –> 00:20:57.080

Wir hatten ja zum Beispiel ├╝ber geordnete Schl├╝sselqualifikationen gesprochen.

00:20:57.080 –> 00:21:02.240

Hier laufen wir jetzt vom Begrifflichen in Richtung Future Skills.

00:21:02.240 –> 00:21:06.840

Wir werden dieses Thema Future Skills auch nochmal separat und Mega-Learning auch nochmal

00:21:06.840 –> 00:21:10.960

separat aufgreifen und hier nochmal genauer hinschauen in den n├Ąchsten Tagen.

00:21:10.960 –> 00:21:14.600

Aber zumindest schon mal hier das mit angestriffen zu haben,

00:21:14.600 –> 00:21:18.800

eben ob es nicht unabh├Ąngig davon, welche Begriffe wir jetzt verwenden,

00:21:18.800 –> 00:21:23.080

daf├╝r also diese urspr├╝nglich gedachten ├╝bergeordneten Schl├╝sselqualifikationen

00:21:23.080 –> 00:21:28.480

hier in diesem Kontext auch so weit zu gehen und zu sagen, eben eine gewisse

00:21:28.480 –> 00:21:32.800

Art Sensibilisierung auf die Themen aufzumachen, Menschen so zu

00:21:32.800 –> 00:21:37.600

begleiten oder die Leitplanken so zu setzen,

00:21:38.080 –> 00:21:43.760

dass innerhalb dieser Menschen auch bef├Ąhigt werden, sozusagen selbst immer wieder in die

00:21:43.760 –> 00:21:49.760

Abw├Ągung zu kommen, also ohne dass man das von au├čen vorgibt oder vordefiniert und das

00:21:49.760 –> 00:21:54.200

Individuum selbst dann auch noch mal als Konsequenz den Abgleich f├╝r sich selbst auch an der

00:21:54.200 –> 00:21:55.200

Stelle machen muss.

00:21:55.200 –> 00:22:01.720

Ist so was so aus eurer Sicht eben auch denkbar und m├Âglich und w├Ąre das zielf├╝hrend als

00:22:01.720 –> 00:22:04.080

Frage auch mal mit reingegeben.

00:22:04.080 –> 00:22:05.720

J├╝rgen, magst du dazu anschlie├čen?

00:22:05.720 –> 00:22:07.720

(Rednerwechsel)

00:22:07.720 –> 00:22:21.720

Ja, ich bringe, um ganz ehrlich zu sein, eigentlich den Eingang

00:22:21.720 –> 00:22:25.720

deiner Bemerkung mit dem Schluss nicht mehr zusammen.

00:22:25.720 –> 00:22:29.720

Vielleicht habe ich das aber auch, weil ich im Moment in einem sehr

00:22:29.720 –> 00:22:33.720

heraus intensiven Umfeld mich aufhalte, vielleicht nicht so

00:22:33.720 –> 00:22:40.320

richtig verstanden, liebe Yasemin, aber deswegen gebe ich die Frage jetzt noch

00:22:40.320 –> 00:22:49.280

mal zur├╝ck, gehst du davon aus, dass es eine sowohl individuelle Ebene,

00:22:49.280 –> 00:22:54.920

der Definition dieser Ethik, dieses Gut und B├Âse, n├Ąmlich jetzt mal

00:22:54.920 –> 00:22:59.960

schlagmutterartig, gibt, als auch eine institutionalisierte. Ich habe dich

00:22:59.960 –> 00:23:05.280

n├Ąmlich, ich frage deswegen, weil ich am Anfang verstanden habe, dass du dich von

00:23:05.280 –> 00:23:10.960

diesen beiden Positionen trennen m├Âchtest. Und da habe ich mich gefragt,

00:23:10.960 –> 00:23:19.000

welche Ebene greift denn dann? Weil zum Beispiel eine neue Technologie existiert

00:23:19.000 –> 00:23:25.240

ja nicht per se, sondern sie hat immer eine Intention, auf jeden Fall von demjenigen,

00:23:25.240 –> 00:23:30.240

der sie erschafft. Aber es kann sein, wie gesagt, aufgrund der

00:23:30.240 –> 00:23:33.240

derzeitigen Umwelt, dass ich das falsch verstanden habe. Sorry.

00:23:33.240 –> 00:23:39.240

Ja, vielen, vielen lieben Dank f├╝r die Frage. Also mir geht es darum,

00:23:39.240 –> 00:23:44.240

die Technologie sozusagen nicht per se als gut oder schlecht zu definieren.

00:23:44.240 –> 00:23:50.240

Also es kann zwar eben verschiedene Ebenen geben, auf denen wir

00:23:50.240 –> 00:23:56.780

ethisch gewisse Dinge definieren, ja, aber nicht die Technologie als solches, also zum

00:23:56.780 –> 00:24:01.200

Beispiel zu sagen, Atomkraftwerke sind per se grunds├Ątzlich schlecht, davon wollen wir

00:24:01.200 –> 00:24:10.540

weg, sondern auch hier sozusagen gewisse T├╝ren offen zu lassen, im Hinblick auf Leitplanken

00:24:10.540 –> 00:24:17.600

zu setzen, zwar, aber nicht per se von vornherein zu definieren, welche Technologie denn jetzt

00:24:17.600 –> 00:24:22.600

oder schlechtes oder ├Ąhnliches.

00:24:22.600 –> 00:24:27.200

Das meinte ich damit. J├╝rgen, magst du

00:24:27.200 –> 00:24:31.840

da noch mal anschlie├čen? Okay, da finden wir

00:24:31.840 –> 00:24:33.880

uns jetzt zusammen, weil und ich gehe jetzt

00:24:33.880 –> 00:24:38.240

also das ist glaube ich eine wirklich eine

00:24:38.240 –> 00:24:43.040

eine sehr divisive und

00:24:43.040 –> 00:24:46.560

eigengepr├Ągte Anschauungsweise. Ich gehe

00:24:43.040 –> 00:24:49.560

Ich gehe mal davon aus, dass du das in gleicher Intention so benutzt oder siehst, wie ich,

00:24:49.560 –> 00:24:55.840

dass ich sage, die Technologie an sich macht nicht gut und b├Âse und die entscheidet auch

00:24:55.840 –> 00:25:02.160

nicht dar├╝ber, ob sie richtig oder falsch ist, sondern derjenige, der die Technologie

00:25:02.160 –> 00:25:08.440

entwickelt, der die Technologie nutzt und der sie f├╝r seine Zwecke nutzt.

00:25:08.440 –> 00:25:11.840

Habe ich dich da in der Richtung richtig verstanden?

00:25:11.840 –> 00:25:13.840

Ja, absolut.

00:25:13.840 –> 00:25:19.840

Okay, da sind wir beieinander.

00:25:19.840 –> 00:25:23.840

Dann stellt sich f├╝r mich aber auch die Frage,

00:25:23.840 –> 00:25:27.840

wenn ich eine neue Technologie habe,

00:25:27.840 –> 00:25:29.840

wie das Beispiel das Marc angef├╝hrt hat,

00:25:29.840 –> 00:25:32.840

mit diesen Genscheren zum Beispiel,

00:25:32.840 –> 00:25:34.840

die ich gerne aufnehme,

00:25:34.840 –> 00:25:37.840

weil ich da vor kurzem auch etwas dar├╝ber gelesen habe,

00:25:37.840 –> 00:25:47.600

dann ist man durchaus in der Lage, wie bei vielen anderen Dingen sowohl positives als auch negatives

00:25:47.600 –> 00:25:55.280

zu sehen. da ist der markt ja auch darauf eingegangen. der unterschied und der pr├Ągende

00:25:55.280 –> 00:26:02.040

Unterschied auch im Hinblick auf bis hin zum Storytelling dieser neuen Technologie ist aber,

00:26:02.040 –> 00:26:10.820

dass der Au├čenstehende, sowohl du als auch ich, als auch der Marc, mit ganz anderen Augen darauf

00:26:10.820 –> 00:26:20.520

schaut und genauso schaut mit anderen Augen die Politik darauf. Die Politik schaut, da lehne ich

00:26:20.520 –> 00:26:30.600

mich jetzt mal aus dem Fenster, aus Opportunit├Ąts- und aus in Anf├╝hrungsstrichen Machtaspekten

00:26:30.600 –> 00:26:39.560

auf diese Technologie. Was aber im Grunde genommen kaum etwas anderes ist, als meine Sichtweise,

00:26:39.560 –> 00:26:45.480

ich will euch da jetzt nicht inkludieren, das m├Âchte ich nicht tun, aber aus meiner Sichtweise,

00:26:45.480 –> 00:26:51.000

indem ich, und jetzt sind wir wieder bei der Grundstruktur der Neurowissenschaft, liebe

00:26:51.000 –> 00:27:00.600

Yasmin, in dem ich sage, was n├╝tzt es mir oder muss ich mich davor f├╝rchten und im Grunde genommen

00:27:00.600 –> 00:27:08.160

schlie├čt sich f├╝r mich da eben dieser Kreis, dass ich sagte, die Technologie, eine neue Technologie

00:27:08.160 –> 00:27:16.040

oder eine abgewandte Technologie existiert niemals per se, sondern sie hat immer einen Onlooker,

00:27:16.040 –> 00:27:22.200

einer der drauf schaut und der eine gewisse Motivation, eine Intention und

00:27:22.200 –> 00:27:27.800

eine Vision oder Zielsetzung damit verbindet.

00:27:27.800 –> 00:27:34.000

Ja wunderbar, vielen vielen Dank. Marc magst du hier anschlie├čen?

00:27:34.000 –> 00:27:39.000

Ja ich habe n├Ąmlich noch einen Punkt, weil als ich das mit diesen Babys, mit

00:27:39.000 –> 00:27:42.080

den drei M├Ądchen in Chile gelesen habe, da kommt noch ein viel interessanterer

00:27:42.080 –> 00:27:46.240

Aspekt dazu. Was ist denn mit dem Datenschutz? Also nehmen wir mal an, ich

00:27:46.240 –> 00:27:49.520

bin gentechnisch behandelt und kann jetzt kein HIV mehr bekommen.

00:27:49.520 –> 00:27:53.320

Jetzt bin ich auf der Suche nach einer Partnerin und h├Ątte auch unheimlich

00:27:53.320 –> 00:27:57.360

gern ein Kind mit dieser Partnerin. Inwiefern muss das dann geregelt werden?

00:27:57.360 –> 00:28:01.240

Es k├Ânnte ja sein, dass die Partnerin eine andere Einstellung hat als ich. Also

00:28:01.240 –> 00:28:04.400

sagen wir mal, meine Partnerin sagt, ich m├Âchte kein Kind mit dir. Ja warum denn

00:28:04.400 –> 00:28:08.080

nicht? Du bist gentechnisch behandelt. Ich habe Riesenangst, was das mit unserem

00:28:08.080 –> 00:28:12.720

Baby macht. Ich m├Âchte kein King von einem Mann, der gentechnisch behandelt ist. Und

00:28:12.720 –> 00:28:16.360

ich sage einfach, das ist mein Ding, das m├Âchte ich dir nicht sagen, weil das ist

00:28:16.360 –> 00:28:19.720

meine private Sache. Und schon sind wir wieder bei den Gesetzen. Wo h├Ârt meine

00:28:19.720 –> 00:28:23.840

Freiheit auf, das Individuelle? Und wo m├╝ssen Sachen geregelt werden? Wenn es

00:28:23.840 –> 00:28:27.520

meine eigene Sache ist, kann ich ja sagen, ich sage dir das nicht, das ist

00:28:27.520 –> 00:28:30.600

mein eigenes Ding. Aber genauso gut hat der andere das Recht zu sagen, h├Âr mal zu,

00:28:30.600 –> 00:28:35.880

ich entscheide aber trotzdem, mit wem ich mich fortpflanze oder nicht.

00:28:35.880 –> 00:28:40.080

Ach ja, herrlich, vielen, vielen lieben Dank. Und das Spannende ist halt, hier

00:28:40.080 –> 00:28:44.240

kommt, hier wird ja deutlich, welche Komplexit├Ąt das Ganze hat, weil es eben

00:28:44.240 –> 00:28:47.520

dann nicht nur, und deswegen fand ich das jetzt auch noch mal ein sch├Ânes

00:28:47.520 –> 00:28:51.000

Beispiel an der Stelle, weil es ja nicht nur in Anf├╝hrungsstrichen

00:28:51.000 –> 00:28:55.320

m├Âglicherweise uns selbst betrifft an der Stelle, sondern zum Beispiel, wenn wir

00:28:55.320 –> 00:29:01.560

eben in der Konstellation, Institution Familie, Ehe und so weiter

00:29:01.560 –> 00:29:06.540

denken, eben Familie auch mit dazunehmen. Dann eben auch so was wie, dann betrifft

00:29:06.540 –> 00:29:12.740

das eben auch Aspekte wie Kinder, die vielleicht noch, ja, noch nicht

00:29:12.740 –> 00:29:16.200

vollj├Ąhrig sind, die selbst keine Entscheidungen treffen k├Ânnen und und

00:29:16.200 –> 00:29:19.800

und. Und das macht sehr, sehr deutlich, wie schnell eben auch diese Komplexit├Ąt

00:29:19.800 –> 00:29:26.680

hier einfach sichtbar zu machen, also dass die auch vorhanden ist. Und auch

00:29:26.680 –> 00:29:30.040

an, wenn wir an verschiedenen Stellen auch verschiedene Diskussionen

00:29:30.040 –> 00:29:34.640

aufgreifen, ob das jetzt Technologien sind, ob das andere Zusammenh├Ąnge sind,

00:29:34.640 –> 00:29:41.760

auch gerade bei den ganzen Diskussionen, die ja da auch aktuell stattfinden,

00:29:41.760 –> 00:29:48.400

angefangen vom Gendern bis hin zu, ja, diese Regenbogenbewegungen bis hin zu

00:29:48.400 –> 00:29:53.800

Umoperationen, die gestattet werden sollen oder nicht oder wie damit umgegangen

00:29:53.800 –> 00:29:59.200

wird, wenn Eltern dem nicht zustimmen oder ├Ąhnliches. Also all das kann man hier

00:29:59.200 –> 00:30:03.520

sehr sch├Ân gerade auch in den Diskussionen aktuell ja auch beobachten,

00:30:03.520 –> 00:30:09.220

was das eben auch dann an unterschiedlichen Impulsen ausl├Âst, wie

00:30:09.220 –> 00:30:15.000

dar├╝ber diskutiert wird. Und auch hier sind ja ├╝berall ethische Aspekte

00:30:15.000 –> 00:30:18.440

mit dabei, die hier eine ganz wesentliche Rolle bei diesen ganzen

00:30:18.440 –> 00:30:23.520

Betrachtungsweisen auch spielen und wie Menschen eben auch darauf reagieren, wie

00:30:23.520 –> 00:30:28.720

ihre Haltung eben letztendlich auch zu bestimmten Themen ist, in Anf├╝hrungsstrichen.

00:30:28.720 –> 00:30:33.760

ohne das zu bewerten, sondern einfach erst mal neutral zu beobachten und aus

00:30:33.760 –> 00:30:38.840

dieser Perspektive mal drauf zu schauen. Und also von daher wird deutlich, dass

00:30:38.840 –> 00:30:44.200

hier diese Komplexit├Ąt vorhanden ist und das ist das, was es auch so

00:30:44.200 –> 00:30:49.240

herausfordernd macht, hier auch in Anf├╝hrungsstrichen L├Âsungen daf├╝r, f├╝r

00:30:49.240 –> 00:30:53.200

diese Thematik oder Problematik sozusagen auch zu finden. Und

00:30:53.200 –> 00:30:58.200

m├Âglicherweise auch, dass mit einer der Gr├╝nde ist, warum am Ende in

00:30:58.200 –> 00:31:02.200

Anf├╝hrungsstrichen, es dann zwar vielleicht viele Diskussionen gibt oder

00:31:02.200 –> 00:31:07.360

viele Ans├Ątze und ├ťberlegungen, aber immer wieder die L├Âsung dann doch darin

00:31:07.360 –> 00:31:11.320

gefunden wird, zu sagen, jetzt muss es doch von einer zentralen Stelle irgendwie,

00:31:11.320 –> 00:31:15.400

wer auch immer die zentrale Stelle dann ist, das kann ja auch unterschiedlich

00:31:15.400 –> 00:31:19.440

sein, je nachdem, was wir uns da betrachten, von zentraler Stelle

00:31:19.440 –> 00:31:22.640

irgendwie vorgegeben werden oder gesteuert werden, weil sonst kommen wir

00:31:22.640 –> 00:31:25.800

hier an der Stelle nicht weiter. Ist das denn ├╝berhaupt eine L├Âsung?

00:31:25.800 –> 00:31:30.020

Fragezeichen w├Ąre ja dann auch die n├Ąchste Fragestellung, die wir mit

00:31:30.020 –> 00:31:34.380

aufgreifen k├Ânnen an der Stelle. Mag da jemand noch mal mit andocken an der Stelle?

00:31:34.380 –> 00:31:44.540

Ich habe da noch mal einen Punkt, liebe Yasemin. Wir wissen ja auch alle, das k├Ânnen wir uns am

00:31:44.540 –> 00:31:49.500

besten vorstellen, dass das Handy uns alle ver├Ąndert hat. Zumindest sagt man,

00:31:49.500 –> 00:31:53.820

und es gibt Untersuchungen, dass das Handy die Aufmerksamkeitsspanne der Kinder ver├Ąndert hat.

00:31:53.820 –> 00:31:57.660

Also dass die Kinder eine ganz andere Konzentration in der Schule haben, wie vorher.

00:31:57.660 –> 00:32:02.740

Wenn es bevor es die H├Ąnde gegeben h├Ątte, jemand gesagt h├Ątte, Achtung, Handy, vorsichtig,

00:32:02.740 –> 00:32:06.380

k├Ânnte was mit unserer Konzentration machen, das h├Ątte man ja gar nicht gewusst.

00:32:06.380 –> 00:32:07.900

Und das Gleiche ist mit den Robotern.

00:32:07.900 –> 00:32:13.580

Es gibt also einen Test, wo man in einer Kindergrippe, da waren die Kinder zwischen 18 und 24 Monate,

00:32:13.580 –> 00:32:15.780

den hat man einen tanzenden Roboter mitgebracht.

00:32:15.780 –> 00:32:21.100

Und dann hat man festgestellt, dass nach f├╝nf Monaten schon die Kinder den Roboter so angenommen

00:32:21.100 –> 00:32:24.940

haben, das hei├čt, wenn der keinen Strom mehr hatte und der sich nicht mehr bewegt hat,

00:32:24.940 –> 00:32:29.620

dann haben die Kinder angefangen, also Kinder bis zu 24 Monate, den Roboter zu sch├╝tteln

00:32:29.620 –> 00:32:33.220

und haben dann gedacht, also mehr oder weniger stehe auf, der ist vielleicht m├╝de. Und wenn

00:32:33.220 –> 00:32:36.780

sie dann gedacht haben, der steht nicht auf, dann war der Schluss, der ist m├╝de. Dann

00:32:36.780 –> 00:32:40.780

haben diese Kinder also den Roboter wie ein Gleichaltrigem behandelt, haben dann eine

00:32:40.780 –> 00:32:44.500

Decke genommen und haben den Roboter zugedeckt, weil wenn der sich nicht bewegt und nicht

00:32:44.500 –> 00:32:48.100

tot ist, dann schl├Ąft er ja nur. Und das kann man jetzt weiterspielen. Jetzt gibt es

00:32:48.100 –> 00:32:51.740

keine Untersuchung, wie ver├Ąndert sich dann so ein Kind, also wenn das Kind l├Ąnger in

00:32:51.740 –> 00:32:55.940

so einer Gruppe aufw├Ąchst mit einem Roboter, kann das auch sein, dass das Verhalten von

00:32:55.940 –> 00:33:00.540

den Kindern auch ein ganz anderes ist, als Kinder, die ohne tanzenden Roboter oder ohne

00:33:00.540 –> 00:33:04.540

KI aufgewachsen sind. Und dann w├Ąren wir wieder bei der ethischen Frage und da das

00:33:04.540 –> 00:33:09.100

niemand von uns wei├č, wird auch kein Politiker diese Frage eindeutig beantworten k├Ânnen.

00:33:09.100 –> 00:33:13.900

Ich kann es auch nicht. Und darum sind Diskussionen wichtig und auch wieder Bildung, Fragen und

00:33:13.900 –> 00:33:19.180

Hinterfragen immer zu schauen, wen vertritt der, aus welcher Gruppe kommt der, ist das ein Lobbyist,

00:33:19.180 –> 00:33:26.100

der f├╝r eine Roboterfirma arbeitet oder wie auch immer, aber nicht diese Fragen, wie gesagt,

00:33:26.100 –> 00:33:31.140

so zu kontrollieren, wo kommen die Antworten meines Gegen├╝bers hin. Diese Sache losgel├Âst zu

00:33:31.140 –> 00:33:35.660

betrachten, Javier Asmin, finde ich auch interessant. Wenn du sagst, grunds├Ątzlich ist eine Technologie

00:33:35.660 –> 00:33:41.620

nicht gut oder b├Âse, dann kann ich ja auch einfach sagen, naja gut, dann ist ja auch ein Politiker

00:33:41.620 –> 00:33:47.140

nicht gut oder b├Âse, auch dann ist etwas nicht gut oder richtig. Und wenn der

00:33:47.140 –> 00:33:50.340

hoffentlich nicht gew├Ąhlt wird, der n├Ąchste amerikanische Pr├Ąsident wieder

00:33:50.340 –> 00:33:54.220

sagt, was schert uns Europa, das ist doch vollkommen egal und wir lassen auch

00:33:54.220 –> 00:33:57.420

keine Ausl├Ąnder mehr rein, dann ist das ja auch nicht richtig oder falsch, dann

00:33:57.420 –> 00:34:02.100

ist das erst mal ein Statement. Und daher bin ich dann eher J├╝rgens Ansicht,

00:34:02.100 –> 00:34:05.140

dass es immer verschiedene Interessen gibt, so sind wir Menschen gestrickt,

00:34:05.140 –> 00:34:09.220

unsere Emotionen werden wir nicht ausschalten k├Ânnen, das unterscheidet uns

00:34:09.220 –> 00:34:12.740

Gott sei Dank von einem Roboter. Und solange wir Emotionen haben, solange es

00:34:12.740 –> 00:34:17.140

Menschen mit Emotionen gibt, wird es auch diese Diskussion geben. Und das geht

00:34:17.140 –> 00:34:22.060

eben nur mit Respekt und einer Auseinandersetzung auf Augenh├Âhe.

00:34:22.060 –> 00:34:26.820

Ja super, vielen, vielen lieben Dank. Und das zeigt ja dann letztendlich auch, dass

00:34:26.820 –> 00:34:32.660

es dadurch, dass ja viele Dinge eben auch nicht absehbar sind, dass zum einen

00:34:32.660 –> 00:34:36.420

viele verschiedene T├╝ren, in Anf├╝hrungsstrichen, so will ich es jetzt

00:34:36.420 –> 00:34:40.780

mal bezeichnen, auch offengelassen werden m├╝ssen an der einen Stelle, weil man muss

00:34:40.780 –> 00:34:46.680

ja auch gewisserma├čen ├╝berhaupt erstmal beobachten und schauen und kann ja auch

00:34:46.680 –> 00:34:51.060

nicht alles in der Vorausschau sozusagen planen, weil man eben auch die Auswirkungen

00:34:51.060 –> 00:34:54.780

von gewissen Technologien vielleicht auch gar nicht kennt und das noch gar

00:34:54.780 –> 00:34:58.700

nicht beurteilen kann. Das ist mal das eine. Deswegen kann man ja auch nicht

00:34:58.700 –> 00:35:02.780

├╝berall restriktiv sozusagen drauf blicken und schon gewisse Dinge

00:35:02.780 –> 00:35:06.340

untersagen, obwohl man noch gar nicht wei├č, wie sich das entwickelt oder was

00:35:06.340 –> 00:35:12.020

passieren wird. Gleichzeitig zeigt es auch, dass es an der einen oder anderen

00:35:12.020 –> 00:35:15.580

Stelle eben auch eine hohe Reaktionsgeschwindigkeit oder

00:35:15.580 –> 00:35:20.300

Diskussions- oder Reaktionsgeschwindigkeit braucht, um agil eben auch auf

00:35:20.300 –> 00:35:25.180

bestimmte Herausforderungen und Probleme, die sich dann aber auch abzeichnen lassen,

00:35:25.180 –> 00:35:31.580

eben in Anf├╝hrungsstrichen schnell genug zu reagieren und hier auch T├╝ren

00:35:31.580 –> 00:35:34.820

in Anf├╝hrungsstrichen wieder zuzumachen, die vorher offen gelassen wurden

00:35:34.820 –> 00:35:40.820

m├Âglicherweise. Und gleichzeitig ist es aber so, dass ein Diskurs mit der

00:35:40.820 –> 00:35:44.900

Betrachtung verschiedener Perspektiven und so weiter ja auch etwas ist, was auch

00:35:44.900 –> 00:35:50.140

eine gewisse Zeit per se, also es liegt in der Sache sozusagen, auch braucht.

00:35:50.140 –> 00:35:55.900

Also der Zeitfaktor spielt hier eine enorme Rolle an der Stelle, mit

00:35:55.900 –> 00:36:00.860

also einem Spannungsfeld, in dem wir uns befinden. Auf der einen Seite sozusagen

00:36:00.860 –> 00:36:06.500

zu sehen, da rollt was auf uns zu. Da ist es erforderlich, eben auch ethisch drauf

00:36:06.500 –> 00:36:11.480

zu gucken, in Anf├╝hrungsstrichen, und hier m├Âglicherweise im Diskurs auch zu

00:36:11.480 –> 00:36:14.940

├╝berlegen, was kann man machen oder wie kann man damit vorgehen und gleichzeitig

00:36:14.940 –> 00:36:18.260

auf der einen Seite nicht zu viel Zeit verstreichen zu lassen, auf der anderen

00:36:18.260 –> 00:36:23.900

Seite aber dem auch die Zeit zu geben, eben hier auch Probleme wirklich

00:36:23.900 –> 00:36:27.100

erstmal sichtbar werden zu lassen, die man vielleicht in der Vorausschau gar

00:36:27.100 –> 00:36:32.860

nicht erblicken oder erahnen kann, um dann entsprechend auch wieder damit umzugehen,

00:36:32.860 –> 00:36:36.620

sobald es in Anf├╝hrungsstrichen m├Âglicherweise dann eingetroffen ist,

00:36:36.620 –> 00:36:39.940

auch wenn man damit vorher nicht gerechnet hat, in Anf├╝hrungsstrichen.

00:36:39.940 –> 00:36:45.060

Und dann kann man nat├╝rlich auch verschiedene, und jetzt reden wir ja relativ abstrakt dar├╝ber,

00:36:45.060 –> 00:36:48.740

und es wird ja deutlich, dass es hier auch wahrscheinlich darauf ankommt,

00:36:48.740 –> 00:36:53.140

um welche Kontexte sprechen wir denn eigentlich, und dass es hier auch nochmal

00:36:53.140 –> 00:37:00.940

m├Âglicherweise leichter f├Ąllt, auch Antworten zu finden oder uns eher anzun├Ąhern, wenn wir auch

00:37:00.940 –> 00:37:07.740

ganz konkretere Beispiele nehmen. Und eines der Beispiele, was j├╝ngst sehr, sehr stark ja auch

00:37:07.740 –> 00:37:13.340

an verschiedenen Stellen diskutiert wurde, ist ja so etwas wie zum Beispiel die Nutzung von

00:37:13.340 –> 00:37:21.620

künstlicher Intelligenz oder bei der zum Beispiel Videogestaltung oder Ähnliches, wo man eben zum

00:37:21.620 –> 00:37:25.820

Beispiel die Stimmen von Promis verwenden kann, Bilder von Promis verwenden kann,

00:37:25.820 –> 00:37:32.620

wo es dem Menschen heute schon nicht mehr leicht f├Ąllt, zu unterscheiden zu k├Ânnen,

00:37:32.620 –> 00:37:39.100

ist das jetzt echt oder fake. In Zukunft, wenn die Systeme hier noch ausgereifter sind,

00:37:39.100 –> 00:37:44.820

wird das wahrscheinlich mit blo├čem Auge ├╝berhaupt nicht mehr erkennbar sein.

00:37:44.820 –> 00:37:50.060

Jetzt, heute geht es teilweise noch, da kann man dann genauer draufschauen und wird vielleicht

00:37:50.060 –> 00:37:54.060

noch ein paar Unstimmigkeiten finden.

00:37:54.060 –> 00:37:55.260

Aber h├Ąufig nehmen wir uns ja gar

00:37:55.260 –> 00:37:58.300

nicht die Zeit, sondern sehen

00:37:58.300 –> 00:38:00.260

beispielsweise ein Video auf Social

00:38:00.260 –> 00:38:03.020

Media und scrollen dann auch relativ

00:38:03.020 –> 00:38:04.780

schnell weiter. Das hei├čt, hier kann man ja

00:38:04.780 –> 00:38:07.340

relativ schnell auch wirklich das

00:38:07.340 –> 00:38:10.500

Gef├╝hl haben, etwas gesehen zu haben,

00:38:10.500 –> 00:38:13.220

was dann eben ein Politiker oder irgendein

00:38:13.220 –> 00:38:15.380

Promi gesagt haben soll, was aber die

00:38:15.380 –> 00:38:19.580

Person gar nicht getan hat. Das hei├čt,

00:38:15.380 –> 00:38:21.740

hier in Richtung Fake News sozusagen auch gewisse Dinge in Verbreitung kommen.

00:38:21.740 –> 00:38:26.820

Wenn man jetzt in Richtung zum Beispiel Politik denken, Wahlen denken oder so,

00:38:26.820 –> 00:38:30.900

dann kann das nat├╝rlich auch verheerende Folgen haben. Also nicht nur in Bezug auf

00:38:30.900 –> 00:38:36.180

das Individuum, das dem hier gesch├Ądigt werden kann im Hinblick auf Reputation

00:38:36.180 –> 00:38:41.820

und so weiter und so fort, sondern bis hin zu eben auch auf der Ebene der

00:38:41.820 –> 00:38:45.940

Politik, dass hier eben auch Entscheidungen getroffen werden, Wahlen

00:38:45.940 –> 00:38:49.740

manipuliert werden oder Sonstiges. Und das sind ja tats├Ąchlich dann auch ernst

00:38:49.740 –> 00:38:54.100

zu nehmende Themen, wo es ja wirklich auch Sinn macht, draufzuschauen

00:38:54.100 –> 00:38:57.780

und zu ├╝berlegen, wie kann man da eben in Zukunft in Anf├╝hrungsstrichen damit

00:38:57.780 –> 00:39:03.660

auch umgehen. Und da bin ich jetzt mal gespannt, Marc, was du dazu sagst.

00:39:03.660 –> 00:39:08.640

Wir haben ja auch ├╝ber diesen Sicherheitsaspekt gesprochen. Nat├╝rlich

00:39:08.740 –> 00:39:12.940

macht es Sinn, wir kennen es von den Flugh├Ąfen, nat├╝rlich macht es Sinn, dass

00:39:12.940 –> 00:39:18.600

hier eben auch Personenkontrollen stattfinden, Personalausweise kontrolliert

00:39:18.600 –> 00:39:24.520

werden, dass entsprechend Security-Checks stattfinden und so weiter. Aber eine

00:39:24.520 –> 00:39:28.640

hundertprozentige Sicherheit in dem Sinne gibt es ja auch nicht. Und ich

00:39:28.640 –> 00:39:32.920

denke, das ist auch etwas, was bei diesen Diskussionen mit zu ber├╝cksichtigen ist,

00:39:32.920 –> 00:39:36.720

dass man hier eben immer wieder in Anf├╝hrungsstrichen letztendlich ein

00:39:36.720 –> 00:39:43.260

bestreben hat, gewisse Leitplanken zu setzen, Diskurse zu haben, L├Âsungen zu

00:39:43.260 –> 00:39:49.000

finden, aber dass es niemals eine eine L├Âsung geben wird, egal von welcher

00:39:49.000 –> 00:39:54.320

Seite oder von welcher Ebene wir uns dem Ganzen hier thematisch ann├Ąhern, die dann

00:39:54.320 –> 00:40:00.880

die absolute L├Âsung darstellen wird, sondern es auch hier anzunehmen, dass es

00:40:00.880 –> 00:40:05.480

keine endg├╝ltige L├Âsung gibt f├╝r diese Problematik, sondern dass es immer wieder

00:40:05.480 –> 00:40:10.480

neue Situationen geben wird, an die man nicht gedacht hat, immer wieder neue

00:40:10.480 –> 00:40:15.480

Aspekte, die sich vorher nicht ber├╝cksichtigen lassen haben,

00:40:15.480 –> 00:40:20.480

├╝berraschende Momente, die wir erleben werden als Menschen, wo wir dann in

00:40:20.480 –> 00:40:24.480

der Situation einfach immer wieder auch aufs Neue gucken werden m├╝ssen, deswegen

00:40:24.480 –> 00:40:29.480

auch nicht den Anspruch zu haben, hier eine endg├╝ltige L├Âsung zu finden.

00:40:29.480 –> 00:40:31.480

Marc, was sagst du denn dazu?

00:40:31.480 –> 00:40:37.880

Ja, zu meinem Sicherheitsaspekt. Uns muss halt bewusst werden, viele dieser Technologien werden nur funktionieren,

00:40:37.880 –> 00:40:43.080

indem wir Daten sammeln und auch Daten speichern. Und es gibt schon L├Ąnder, das hat mich sehr erschrocken,

00:40:43.080 –> 00:40:47.280

okay, wir wissen ├╝berall, dass Kameras zur Sicherheit eingesetzt werden.

00:40:47.280 –> 00:40:52.680

Jetzt kann ich ja auf die clevere Idee kommen zu sagen, gut, das ist mir egal, ich ziehe mir halt eine Baseball Cap ├╝bers Gesicht

00:40:52.680 –> 00:40:57.880

oder ich trage eine Strickm├╝tze oder so eine Motorradm├╝tze, dann kann ich das ja verhindern, dass die mich erkennen.

00:40:57.880 –> 00:41:02.880

Das ist aber sehr ignorant und auch naiv, denn mittlerweile gibt es KI-Systeme,

00:41:02.880 –> 00:41:05.880

die mich genau am Gang ausmachen k├Ânnen.

00:41:05.880 –> 00:41:07.880

Das hei├čt, der Mensch hat so einen individuellen Gang,

00:41:07.880 –> 00:41:11.880

dass die Kamera mich allein meines Gang- und Bewegungsbildes abgleichen kann.

00:41:11.880 –> 00:41:15.880

Das funktioniert ja aber nur wieder, wenn meine Daten grunds├Ątzlich speichert werden.

00:41:15.880 –> 00:41:20.880

Wenn ich einmal aufgenommen bin und diese Daten meiner Person zugeordnet werden,

00:41:20.880 –> 00:41:24.880

nur dann kann die KI mich auch wieder erkennen, wenn ich irgendwo anders mal wieder auftauche.

00:41:24.880 –> 00:41:28.680

Auftauch. Zum einen h├Ątten wir dann den Sicherheitsaspekt, super, weil wenn ich

00:41:28.680 –> 00:41:32.200

was B├Âses vorhabe, ist das ja eine Sicherheit f├╝r euch alle, dass man mich

00:41:32.200 –> 00:41:35.960

erkennt, wenn ich am Flughafen mit einer Maske herumlaufe. Zum anderen ist es, wie

00:41:35.960 –> 00:41:39.640

viele b├Âse Menschen gibt es und m├╝ssen dann alle B├╝rger darunter leihen und

00:41:39.640 –> 00:41:43.760

darum ist Datenschutz, finde ich, bei dieser ganzen Thematik auch ein Aspekt,

00:41:43.760 –> 00:41:47.760

den wir bestimmt immer wieder diskutieren werden.

00:41:47.760 –> 00:41:53.280

Ja, vielen lieben Dank, Marc. Und das macht es nat├╝rlich auch nicht weniger

00:41:53.280 –> 00:41:59.640

komplex an der Stelle und zeigt eben auch, ja, also es sind verschiedene Aspekte, die ja jetzt

00:41:59.640 –> 00:42:05.560

hier zusammenkommen. Und Datenschutz ist auch etwas, was auf der einen Seite eben wichtig und

00:42:05.560 –> 00:42:12.760

richtig in Anf├╝hrungsstrichen ist, im Sinne auch des Personenschutzes, sage ich jetzt einfach mal,

00:42:12.760 –> 00:42:18.600

das Individuum zu sch├╝tzen an der Stelle. Und auf der anderen Seite eben wird aber auch deutlich,

00:42:18.600 –> 00:42:23.720

Und da stellt sich eben auch die Frage, wie geht man eben auch mit Datenschutz in einer

00:42:23.720 –> 00:42:29.400

digitalen Zeit in Anf├╝hrungsstrichen um, wo ja auch deutlich wird, und das haben wir

00:42:29.400 –> 00:42:33.640

ja auch in anderen Kontexten schon sehr deutlich gehabt mit diesen neuen Technologien, wie

00:42:33.640 –> 00:42:39.520

wichtig eben auch in Bezug auf Wettbewerb, in Bezug auf Entwicklungen, die hier stattfinden,

00:42:39.520 –> 00:42:40.520

auch die Daten sind.

00:42:40.520 –> 00:42:48.160

Das hei├čt, wenn man hier aus diesem Gedanken heraus, das Individuum zu sch├╝tzen, sozusagen

00:42:48.160 –> 00:42:53.480

nichts m├Âglich macht an der Stelle, hat es ja auch Auswirkungen und Konsequenzen, an

00:42:53.480 –> 00:42:59.680

anderer Stelle wieder abgeh├Ąngt zu werden. Und auch hier merkt man sehr, sehr deutlich,

00:42:59.680 –> 00:43:05.440

wie herausfordernd eben auch genau dieser Umgang damit ist, immer wieder neu zu entscheiden,

00:43:05.440 –> 00:43:12.160

wie gehen wir damit um. Und m├Âglicherweise auch vergangene Entscheidungen auch immer wieder auf

00:43:12.160 –> 00:43:17.640

den Pr├╝fstand zu stellen und vor dem Hintergrund von Entwicklungen immer wieder neu zu pr├╝fen und

00:43:17.640 –> 00:43:23.640

neu zu diskutieren. Das hei├čt, und das ist das N├Ąchste, was ich daraus ableite, dass eine in der

00:43:23.640 –> 00:43:28.400

Vergangenheit getroffene Entscheidung eben m├Âglicherweise heute auch nicht mehr zeitgem├Ą├č

00:43:28.400 –> 00:43:36.320

ist und insofern auch immer wieder kritisch aufzugreifen ist und auch wieder neu zu hinterfragen

00:43:36.320 –> 00:43:42.280

ist, um m├Âglicherweise auch Anpassungen vorzunehmen oder auch neue Entscheidungen zu treffen,

00:43:42.280 –> 00:43:46.800

beziehungsweise vielleicht auch in dem einen oder anderen Fall zu entscheiden, bei der alten

00:43:46.800 –> 00:43:51.560

Entscheidung zu bleiben. Also auch das ist ja nicht ausgeschlossen. Aber um diese Bewertungen,

00:43:51.560 –> 00:43:56.920

Abw├Ągungen etc. vornehmen zu k├Ânnen, braucht es ja auch immer wieder auf der einen Seite

00:43:56.920 –> 00:44:04.520

der erneuten Betrachtung des kritischen Hinterfragens und auch wieder einer neuen Entscheidung,

00:44:04.520 –> 00:44:08.560

angelehnt an verschiedene Abw├Ągungen, die hier vorgenommen werden und gemacht werden.

00:44:08.560 –> 00:44:10.560

Mag Maxe da nochmal anschlie├čen?

00:44:10.560 –> 00:44:15.640

Ja, ich habe noch gerne einen Punkt. Ich denke f├╝r mich, ich bin zutiefst davon ├╝berzeugt,

00:44:15.640 –> 00:44:20.320

Roboter als Hilfe, also nicht Roboter, die was bauen, sondern Roboter als Hilfe ein

00:44:20.320 –> 00:44:24.080

Riesenthema in der Zukunft werden. Und total interessant finde ich, dass damit

00:44:24.080 –> 00:44:26.920

nicht nur Ingenieure besch├Ąftigt werden, also da gibt es nicht nur Teams, die

00:44:26.920 –> 00:44:30.720

sagen, wie bauen wir denn den Roboter, wie muss der sein, was muss der k├Ânnen.

00:44:30.720 –> 00:44:35.080

Das gibt eben dann auch eben Soziologen und Psychologen und dann laufen dann

00:44:35.080 –> 00:44:39.160

zum Beispiel solche Tests, man will den Roboter ja auch verkaufen und man hat

00:44:39.160 –> 00:44:42.720

festgestellt, dass Menschen sich unwohl f├╝hlen, wenn sich hinter ihrem R├╝cken

00:44:42.720 –> 00:44:45.280

eine Haushaltshilfe, also so einen fahrenden Roboter bewegen w├╝rde.

00:44:45.280 –> 00:44:48.200

Also gibt es tats├Ąchlich Untersuchungen, wie Menschen reagieren

00:44:48.200 –> 00:44:50.760

und wie der Roboter sich auch zu verhalten hat.

00:44:50.760 –> 00:44:53.720

Wenn der Roboter zum Beispiel immer nur den gleichen Satz sagt,

00:44:53.720 –> 00:44:55.800

zum Beispiel, ich habe einen Roboter, der bringt mir Kaffee

00:44:55.800 –> 00:44:58.480

und der kann aber nur sagen, hier ist dein Kaffee, guten Morgen, Marc.

00:44:58.480 –> 00:45:00.440

Dann geht mir das nach zwei Monaten auf die Nerven,

00:45:00.440 –> 00:45:01.760

weil er nichts anderes sagen kann.

00:45:01.760 –> 00:45:04.120

Also muss er mehrere Variationen haben.

00:45:04.120 –> 00:45:06.360

Und dann gibt es parallel dazu Untersuchungen,

00:45:06.360 –> 00:45:07.600

wie f├╝hle ich mich am wohlsten?

00:45:07.600 –> 00:45:09.480

Und der Stand der Erkenntnis heute ist,

00:45:09.480 –> 00:45:11.320

dass Menschen sich weder wohlf├╝hlen,

00:45:11.480 –> 00:45:14.560

wenn ein Roboter von hinten kommt, das ist bedrohlich f├╝r sie.

00:45:14.560 –> 00:45:16.080

Noch wenn er von vorne kommt,

00:45:16.080 –> 00:45:19.080

denn auch wenn er von vorne kommt, kann er noch so niedlich aussehen.

00:45:19.080 –> 00:45:21.000

Da wirkt er als Bedrohung.

00:45:21.000 –> 00:45:24.920

Wenn er zu niedlich aussieht, wenn er zu menschenm├Ąnnisch aussieht,

00:45:24.920 –> 00:45:28.080

dann gleichen wir unbewusst ab, dass der Roboter, wenn er l├Ąchelt,

00:45:28.080 –> 00:45:31.000

dass dann eben nicht die Gesichtsz├╝ge ver├Ąndert werden

00:45:31.000 –> 00:45:32.400

und dass die Augen sich nicht bewegen.

00:45:32.400 –> 00:45:35.600

Dann empfinden wir das als unnat├╝rlich und auch wieder befremdlich.

00:45:35.600 –> 00:45:37.280

Es ist vielleicht doch kein Mensch.

00:45:37.280 –> 00:45:41.280

Und da sieht man mal, welche ├ťberlegungen da alles mit einflie├čen,

00:45:41.440 –> 00:45:45.560

Das hat also nicht nur was mit Technik zu tun, sondern auch, wie werden in Zukunft Maschinen,

00:45:45.560 –> 00:45:49.480

also Roboter in unser Leben integriert, ohne dass wir sie dann eben als Bedrohung,

00:45:49.480 –> 00:45:54.040

sondern wirklich als Arbeitsunterst├╝tzung und als, ja wei├č nicht, Bereicherung empfinden.

00:45:54.040 –> 00:46:02.520

Ja, vielen Dank. Und da hatte ich ja auch vor einigen Tagen eben das Beispiel mit

00:46:02.520 –> 00:46:08.880

aufgegriffen, dass zum Beispiel im Silicon Valley eben auch entsprechend Tests durchgef├╝hrt werden,

00:46:08.880 –> 00:46:14.480

dass man eben sogenannte Showrooms oder so was hat im Silicon Valley, wo man dann,

00:46:14.480 –> 00:46:21.640

oder San Francisco, wo dann eben auch die Bev├Âlkerung lebt, dass man da eben tats├Ąchlich

00:46:21.640 –> 00:46:25.960

auch verschiedene Dinge testet im Sinne von, wie wird das denn angenommen? Und ich hatte das in

00:46:25.960 –> 00:46:33.000

diesem Kontext aufgemacht mit diesen Robotern, die im Hintergrund verschiedene Gerichte zubereiten,

00:46:33.000 –> 00:46:40.120

etc. und so, dass man das zwar per se wei├č, aber dass man die Roboter nicht sieht, damit das nicht

00:46:40.120 –> 00:46:46.040

befremdlich wirkt und dass im Endeffekt die Bestellung aufgegeben wird, die Bestellung im

00:46:46.040 –> 00:46:51.760

Hintergrund zubereitet wird und dann man das aus den Schubladen entsprechend sozusagen dann, die

00:46:51.760 –> 00:46:55.240

sich dann entsprechend ├Âffnen, wenn man dann draufklickt, wenn man die Bestellung abholen

00:46:55.240 –> 00:47:01.400

m├Âchte, dass man das rausnimmt und dann verzehrt. Nur mal ein Beispiel, da gibt es ganz verschiedene

00:47:01.400 –> 00:47:07.120

Showrooms, die es dort gibt. Da gibt es auch ├╝brigens von Amazon und so weiter, wo man dann

00:47:07.120 –> 00:47:16.520

eben zum Beispiel auch schaut, da wird dann getrackt, welche Produkte dann in die Hand

00:47:16.520 –> 00:47:21.840

genommen werden, was man sich da genau anschaut oder Sonstiges, sodass eben auch das Verhalten

00:47:21.840 –> 00:47:26.040

des Menschen an der Stelle ein St├╝ck weit auch beobachtet wird, um zu gucken, wie wird das denn

00:47:26.040 –> 00:47:30.920

eigentlich angenommen, bevor man dann eben auch gewisse Entscheidungen trifft in Bezug auf, ist

00:47:30.920 –> 00:47:35.120

der Mensch ├╝berhaupt denn schon so weit oder muss das anders gestaltet werden, um hier

00:47:35.120 –> 00:47:41.160

auch die Akzeptanz sozusagen zu erhalten, wenn man mit einem bestimmten Produkt zum

00:47:41.160 –> 00:47:44.200

beispiel jetzt zu diesem zeitpunkt auch auf den markt gehen w├╝rde.

00:47:44.200 –> 00:47:48.660

das hei├čt, diese marktforschung spielt hier doch auch in diesem technologischen kontext

00:47:48.660 –> 00:47:50.560

eine ganz, ganz wichtige Rolle.

00:47:50.560 –> 00:47:55.240

Und viele werden das vielleicht an der einen oder anderen Stelle auch erlebt haben oder

00:47:55.240 –> 00:47:56.240

mitbekommen haben.

00:47:56.240 –> 00:48:03.180

Gerade wenn neue Ideen kommen, zum Beispiel gerade wenn es darum geht, ein neues Produkt

00:48:03.180 –> 00:48:08.640

auf den markt zu bringen, was technologisch eine innovation darstellt, hat es auch etwas

00:48:08.640 –> 00:48:13.240

mit dem Zeitpunkt zu tun, ob die Menschheit “daf├╝r” schon bereit ist.

00:48:13.240 –> 00:48:18.040

Das hei├čt, es kann sein, dass es eine gute Idee ist, etwas ist, was vielleicht in zehn

00:48:18.040 –> 00:48:23.440

Jahren angenommen wird, aber heute noch nicht der Bedarf erkannt wird oder die Akzeptanz

00:48:23.440 –> 00:48:27.420

eben noch nicht da ist und deswegen ein solches Produkt, wenn es zu fr├╝h auf den

00:48:27.420 –> 00:48:32.740

markt gef├╝hrt wird, m├Âglicherweise eben auch in der marktdurchdringung eben

00:48:32.740 –> 00:48:37.740

scheitert. Nicht, weil die Idee per se schlecht ist, sondern weil der Zeitpunkt

00:48:37.740 –> 00:48:43.000

in Anf├╝hrungsstrichen f├╝r die Akzeptanz noch nicht reif ist. Und daf├╝r

00:48:43.000 –> 00:48:47.140

gibt es viele, viele Beispiele in der Technologie, wo man das sehen kann und

00:48:47.140 –> 00:48:52.900

verfolgen kann, dass ja bestimmte Startups, sage ich jetzt mal, die

00:48:52.900 –> 00:48:56.780

die bestimmte produkte auf den markt gebracht haben oder ideen auf den markt gebracht haben,

00:48:56.780 –> 00:49:01.300

eben nicht angenommen wurden, aber dann einige Jahre sp├Ąter dann doch, vielleicht in einer

00:49:01.300 –> 00:49:05.220

leicht abgewandelten Form, aber es liegt da nicht an der abgewandelten Form an der Stelle,

00:49:05.220 –> 00:49:10.420

sondern h├Ąufig auch nur daran, dass das erste Start-up, was damit rausgegangen ist, quasi

00:49:10.420 –> 00:49:12.380

zu fr├╝h damit rausgegangen ist.

00:49:12.380 –> 00:49:16.300

Und das ist sehr, sehr spannend, das eben hier zu beobachten und zu sehen.

00:49:16.300 –> 00:49:20.260

Das hei├čt, auch hier kommen weitere Aspekte mit dazu, die es zu ber├╝cksichtigen gilt.

00:49:20.260 –> 00:49:26.580

also marktforschung an der stelle spielt eine wichtige rolle, eben wirklich auch zu gucken,

00:49:26.580 –> 00:49:27.580

wo stehen wir.

00:49:27.580 –> 00:49:31.100

Und hier haben wir dann auch diesen Aspekt mit drin, der Mensch.

00:49:31.100 –> 00:49:33.540

Und das ist halt ein Gap, der hier entsteht.

00:49:33.540 –> 00:49:39.100

Auf der einen Seite haben wir neuere Technologien, die in einer wahnsinnigen Geschwindigkeit

00:49:39.100 –> 00:49:41.980

voranschreiten, also was da eben auch m├Âglich ist.

00:49:41.980 –> 00:49:49.420

Und auf der anderen Seite haben wir eben uns Menschen, die halt in Bezug auf Ver├Ąnderungen

00:49:49.420 –> 00:49:54.620

gewisserma├čen, wenn sie keinen Nutzen darin sehen oder ├ähnliches, ja auch ver├Ąnderungsresistent

00:49:54.620 –> 00:50:00.580

zun├Ąchst erst mal sind. Das hei├čt, hier auch Verhaltens├Ąnderungen, Einstellungen,

00:50:00.580 –> 00:50:06.100

Haltungen zu Themen und so weiter auch teilweise deutlich l├Ąnger braucht, hier Ver├Ąnderungen

00:50:06.100 –> 00:50:11.620

zu initiieren, als die Technologie, wenn wir uns die Geschwindigkeit der Entwicklung in

00:50:11.620 –> 00:50:17.700

der Technologie anschauen und das sozusagen ein St├╝ck weit auch zusammenzuf├╝hren. Und

00:50:17.700 –> 00:50:22.540

wird dann aus meiner Sicht deutlich, dass es eben auch eine entsprechende Begleitung dessen braucht,

00:50:22.540 –> 00:50:29.900

weil das eben auch nicht von alleine funktioniert. Und dann wird deutlich aus meiner Sicht, dass es

00:50:29.900 –> 00:50:34.820

eben auch nicht die eine L├Âsung ist, sondern dass es hier verschiedene Komponenten sind,

00:50:34.820 –> 00:50:41.460

die man zusammenf├╝hren kann. Und entsprechend, wenn verschiedene Komponenten zusammengef├╝hrt

00:50:41.460 –> 00:50:47.460

werden, dann in der Gesamtheit betrachtet auch wieder eine Hebelwirkung entsteht. Also wir haben

00:50:47.460 –> 00:50:51.260

zum Beispiel, um deutlich zu machen, was ich damit sagen will, wir haben zum Beispiel vorhin

00:50:51.260 –> 00:50:56.860

von Storytelling gesprochen. Nur mit Storytelling oder ausschlie├člich mit Storytelling wird

00:50:56.860 –> 00:51:02.660

es nicht funktionieren. Aber wenn wir auf der anderen Seite Storytelling sinnvoll und

00:51:02.660 –> 00:51:06.220

clever nutzen, in Anf├╝hrungsstrichen, auf welcher Ebene auch immer, auf verschiedenen

00:51:06.220 –> 00:51:12.980

Ebenen sehr gerne auch, dann ist das sozusagen eine Variante. Wenn auf der anderen Seite

00:51:12.980 –> 00:51:17.620

zum Beispiel Begleitung stattfindet, dann haben wir einen zweiten Weg.

00:51:17.620 –> 00:51:21.380

wenn marktforschung hinzugef├╝hrt wird, haben wir einen dritten weg.

00:51:21.380 –> 00:51:25.540

Und das nicht als losgel├Âste Wege, also jetzt k├Ânnen wir Punkt, Punkt, Punkt machen und

00:51:25.540 –> 00:51:27.180

ganz viele weitere Bereiche aufmachen.

00:51:27.180 –> 00:51:34.060

Und wenn wir diese M├Âglichkeiten nicht als einzelne losgel├Âste voneinander betrachten,

00:51:34.060 –> 00:51:40.100

sondern als Gesamtheit zusammenf├╝hren, dann bekommen wir aus meiner Sicht auch erst eine

00:51:40.100 –> 00:51:44.180

gewisse hebelwirkung im ergebnis. Marc, was sagst du denn dazu?

00:51:44.180 –> 00:51:48.200

Dann m├Âchte ich zu, du hast gerade den Begriff Storytelling noch mal erw├Ąhnt,

00:51:48.200 –> 00:51:50.840

und dann m├Âchte ich noch einen zweiten Begriff gegen├╝berstellen, weil das ist

00:51:50.840 –> 00:51:55.560

f├╝r mich die Praxis. Storytelling ist das eine, und da wir Menschen sind und

00:51:55.560 –> 00:51:58.800

mit anderen Menschen zu tun haben, ist Brandfeuertechnik die andere. Und

00:51:58.800 –> 00:52:01.920

Brandfeuertechnik ist die, in dem du sagst, ich habe vielleicht ein

00:52:01.920 –> 00:52:04.520

Elektromobil und das ist ja umweltfreundlich und ich einfach

00:52:04.520 –> 00:52:07.920

behaupte, naja, wie sieht es aus mit dem Recycling? Oder mir jemand sagt, ich habe

00:52:07.920 –> 00:52:12.240

in China eine Maschine gekauft, die ist ja viel billiger. Brandfeuertechnik w├Ąre, wenn ich sage,

00:52:12.240 –> 00:52:15.600

naja, dann lass die mal reparieren. Da musst du aber ein paar Monate warten, bis du den Ersatz

00:52:15.600 –> 00:52:22.160

da hast. Und dann bin ich wieder beim Thema Bildung und Kommunikation, dass wir uns dieser

00:52:22.160 –> 00:52:26.920

Prozesse bewusst sind, wenn wir Menschen zuh├Âren, ob das jetzt jemand ist, der ein Storytelling

00:52:26.920 –> 00:52:31.440

macht, weil er ein Produkt anpreisen will, dass wir pr├╝fen, was hat das f├╝r mich f├╝r einen Vorteil,

00:52:31.440 –> 00:52:35.200

was hat das f├╝r die Gesellschaft f├╝r einen Vorteil. Genauso gut auf die Antworten zu achten,

00:52:35.200 –> 00:52:37.040

Ist das jetzt eine Brandfeuertechnik?

00:52:37.040 –> 00:52:38.680

Aus welcher Richtung kommt der?

00:52:38.680 –> 00:52:41.000

Haut der nur einfach irgendwelche Argumente raus?

00:52:41.000 –> 00:52:44.640

Und diese Brandfeuertechnik finde ich an mir auch selbst ziemlich bedenklich,

00:52:44.640 –> 00:52:47.280

weil sie ihren Effekt erzielt, weil sie Emotionen weckt.

00:52:47.280 –> 00:52:49.840

Und wenn ich die Fakten und Daten nicht pr├╝fen kann,

00:52:49.840 –> 00:52:51.280

weil ich kein Spezialist bin,

00:52:51.280 –> 00:52:54.240

dann fehlen mir manchmal auf komplexe Themen wieder die Antwort.

00:52:54.240 –> 00:53:00.000

Ja, und da sind wir ja bei dem Punkt,

00:53:00.000 –> 00:53:02.560

dass wir auch festgestellt haben,

00:53:02.560 –> 00:53:04.840

bei vielen Themen ist es ja schon so,

00:53:04.920 –> 00:53:09.520

dass wir immer wieder auch selbst in die Pr├╝fung hineingehen m├╝ssten,

00:53:09.520 –> 00:53:12.320

sozusagen unabh├Ąngig davon, ob wir Experten sind oder nicht.

00:53:12.320 –> 00:53:16.120

Also auch bei Nachrichten, die wir konsumieren,

00:53:16.120 –> 00:53:18.920

in Anf├╝hrungsstrichen nicht nur zu konsumieren,

00:53:18.920 –> 00:53:21.120

sondern immer wieder auch die Quellen zu ├╝berpr├╝fen,

00:53:21.120 –> 00:53:22.320

immer wieder auch reinzuschauen.

00:53:22.320 –> 00:53:25.120

Und das macht es nat├╝rlich auch nicht einfacher.

00:53:25.120 –> 00:53:28.720

Aber zumindest die F├Ąhigkeit, und da sind wir ja auch wieder bei der,

00:53:28.720 –> 00:53:31.320

um diese Selbstwirksamkeit herzustellen,

00:53:31.320 –> 00:53:32.920

da sind wir wieder bei diesem Bildungsaspekt,

00:53:32.920 –> 00:53:38.880

eben zumindest erst mal auch erlernt zu haben, wie mache ich das denn ├╝berhaupt?

00:53:38.880 –> 00:53:45.920

Also ├╝berhaupt die F├Ąhigkeit zu besitzen oder zu bekommen, in eine Pr├╝fung zu gehen,

00:53:45.920 –> 00:53:50.800

wenn es denn etwas ist, wo ich das Gef├╝hl habe, so jetzt habe ich das zwar irgendwo gelesen,

00:53:50.800 –> 00:53:56.040

aber was bedeutet das denn eigentlich? Und da wird deutlich, wie wichtig eben auch dieser

00:53:56.040 –> 00:53:59.720

Bildungskontext wieder an der Stelle ist, also Menschen auch dazu zu bef├Ąhigen,

00:53:59.720 –> 00:54:05.480

├╝berhaupt in die Lage versetzt zu werden, gewisse Dinge auch ├╝berpr├╝fen zu k├Ânnen.

00:54:05.480 –> 00:54:11.200

Ob Sie das dann im Einzelfall f├╝r das einzelne Thema machen oder ob Sie das bei dem n├Ąchsten

00:54:11.200 –> 00:54:16.520

Thema wieder machen, das werden wir dann sozusagen nicht beeinflussen k├Ânnen an der Stelle,

00:54:16.520 –> 00:54:21.960

sondern das muss ja dann auch in der Eigenverantwortung liegen. Aber zumindest den Rahmen entsprechend

00:54:21.960 –> 00:54:27.040

zu setzen, dass eine entsprechende ├ťberpr├╝fung bis zu einem gewissen Grad, das bedeutet nicht,

00:54:27.040 –> 00:54:31.240

sich immer alles aufl├Âsen kann oder immer eine Antwort auf alles finden werde, aber

00:54:31.240 –> 00:54:36.160

in die Lage versetzt zu werden im Sinne der Selbstbestimmung und Selbstwirksamkeit und

00:54:36.160 –> 00:54:40.520

Selbstbestimmung auch nicht nur als Individuum gesehen, sondern auch als eine gemeinschaftlich

00:54:40.520 –> 00:54:45.440

gedachte Selbstbestimmung an der Stelle. Auch dar├╝ber hatten wir schon mal gesprochen,

00:54:45.440 –> 00:54:54.920

dass ich eben hier solche Rahmen sozusagen aufsetzen darf als Land, als Politik, als

00:54:54.920 –> 00:55:03.640

Bildungsorientierung, dass ├╝berhaupt erst mal die M├Âglichkeit schafft, dass das ├╝berhaupt

00:55:03.640 –> 00:55:05.800

auch machbar wird.

00:55:05.800 –> 00:55:09.360

Sonst habe ich nur die Brandfeuertechnik.

00:55:09.360 –> 00:55:13.120

Die wird ├╝brigens auch nicht vermieden werden, die wird es trotzdem irgendwo geben.

00:55:13.120 –> 00:55:19.400

Aber wie der Umgang des Menschen damit ist, ob ich einfach das konsumiere und darauf emotional

00:55:19.400 –> 00:55:26.520

reagiere oder ob ich eben auf eine Art und Weise begleitet wurde, die mir erm├Âglicht,

00:55:26.520 –> 00:55:31.640

sozusagen hier kritisch zu hinterfragen, kritisch drauf zu blicken, ein gewisses Verst├Ąndnis

00:55:31.640 –> 00:55:36.640

f├╝r zu haben, in die Recherche einzusteigen und zu wissen, wie kann ich denn hier ├╝berhaupt

00:55:36.640 –> 00:55:39.080

recherchieren und so weiter.

00:55:39.080 –> 00:55:44.160

Diesen Rahmen meine ich, dass der zun├Ąchst erst mal auch er├Âffnet werden darf und muss

00:55:44.160 –> 00:55:47.920

an der Stelle, weil ich das sonst gar nicht damit umgehen kann.

00:55:47.920 –> 00:55:50.320

Marc, magst du da nochmal anschlie├čen?

00:55:50.320 –> 00:55:53.400

Beziehungsweise dann k├Ânnen wir auch mit Blick auf die Zeit gerne auch schon

00:55:53.400 –> 00:55:56.600

das Abschlusswort mit aufgreifen.

00:55:56.600 –> 00:56:00.920

Ja, mein Abschlusswort ist, dass ich total gespannt und neugierig

00:56:00.920 –> 00:56:04.360

in die Zukunft schaue und jeder, der in der Familie oder im Freundeskreis

00:56:04.360 –> 00:56:07.480

mit Krebs zu tun hat, also meine Einstellung ist, dass ich denke,

00:56:07.480 –> 00:56:10.800

dass in der Medizin, dass es unglaubliche Fortschritte geben wird in der Behandlung.

00:56:10.800 –> 00:56:14.720

Sachen, an die ich mir noch nicht in meinen k├╝hnsten Tr├Ąumen vorstellen kann.

00:56:14.720 –> 00:56:16.680

Das w├╝nsche ich mir f├╝r mich pers├Ânlich.

00:56:16.680 –> 00:56:21.560

f├╝r Marc h├Ątte das einen gr├Â├čeren Mehrwert, wenn ich wei├č, dass niemand mehr sein Kind

00:56:21.560 –> 00:56:26.400

verliert oder sein Partner an Krebs als ein Roboter, der mir einen Kaffee bringt.

00:56:26.400 –> 00:56:29.680

Solange ich beweglich bin, hole ich mir meinen Kaffee sehr, sehr gerne noch selber.

00:56:29.680 –> 00:56:32.960

Ja, vielen, vielen lieben Dank.

00:56:32.960 –> 00:56:37.680

Und hier macht es ja auch nochmal deutlich, dass eben alles in Anf├╝hrungsstrichen,

00:56:37.680 –> 00:56:41.040

genauso wie es Nachteile mit sich bringt, eben auch Vorteile hat.

00:56:41.040 –> 00:56:47.100

Und dadurch, dass wir vom Gehirn her in Anf├╝hrungsstrichen ja vor dem

00:56:47.100 –> 00:56:51.860

Hintergrund der Existenzsicherung sozusagen oder automatisch in die

00:56:51.860 –> 00:56:57.720

Richtung denken, was in welchen Bez├╝gen, in welchem Kontext bedroht mich

00:56:57.720 –> 00:57:01.980

etwas, ist eine ganz menschliche Reaktion. Und deswegen immer wieder auch ganz

00:57:01.980 –> 00:57:06.160

bewusst eben die Chancen nicht auszublenden, auf der einen Seite auf die

00:57:06.160 –> 00:57:11.320

Chancen zu schauen, um unseren Fokus auch darauf zu legen und gleichzeitig eben

00:57:11.320 –> 00:57:16.140

aber auch berechtigte Sorgen in Anf├╝hrungsstrichen nicht einfach weg zu

00:57:16.140 –> 00:57:20.600

fegen oder weg zu wischen, sondern hier auch eben verantwortungsvoll drauf zu

00:57:20.600 –> 00:57:26.160

blicken und zu gucken, wie kann man denn hier auch L├Âsungen finden, wohl wissend,

00:57:26.160 –> 00:57:29.880

dass es keine abschlie├čende L├Âsung sein wird. Das hei├čt, das Thema, die

00:57:29.880 –> 00:57:36.560

Themengebiete und auch Ethik letztendlich ist an der Stelle komplex und wir werden

00:57:36.560 –> 00:57:43.720

die Komplexit├Ąt weder durch Regulierung oder sonstiges einfach sozusagen

00:57:43.720 –> 00:57:48.240

runterschrauben k├Ânnen, also eine gewisse Komplexit├Ąt bleibt. Deswegen ist es

00:57:48.240 –> 00:57:54.040

erforderlich, hier auch immer wieder in Anf├╝hrungsstrichen agil zu sein und ja,

00:57:54.040 –> 00:58:00.400

neue Themen aufzugreifen, m├Âglicherweise auch schnell aufzugreifen, dann auf der

00:58:00.400 –> 00:58:06.000

einen Seite Raum f├╝r Diskurse zu geben, aber dann auch nicht bis ins Unendliche

00:58:06.000 –> 00:58:11.040

zu diskutieren, sondern hier eben auch Entscheidungen zu treffen,

00:58:11.040 –> 00:58:14.840

wohl wissend, dass es keine abschlie├čende Entscheidung sein wird,

00:58:14.840 –> 00:58:19.120

sondern dass es hier eben dann auch entsprechend wieder kritisch zu

00:58:19.120 –> 00:58:25.060

hinterfragen ist regelm├Ą├čig und eben auch wieder Anpassungen erforderlich

00:58:25.060 –> 00:58:32.140

werden und das ist eben insofern dieser Komplexit├Ąt auch zu versuchen,

00:58:32.140 –> 00:58:37.180

ein St├╝ck weit durch den Umgang damit auch gerecht zu werden. Also ich denke,

00:58:37.180 –> 00:58:41.740

das sind ganz viele Aspekte, die hier heute zusammengekommen sind und ich bin

00:58:41.740 –> 00:58:45.020

mal gespannt, wie es dann morgen weitergeht. Da gucken wir uns noch mal

00:58:45.020 –> 00:58:53.180

einen Bereich an, und zwar Kunst und Kultur und schauen uns an, wie ver├Ąndern Technologien

00:58:53.180 –> 00:58:59.620

auch den Bereich Kunst und Kultur. Auch hier passiert einiges und wird auch relativ deutlich

00:58:59.620 –> 00:59:05.340

machen, dass es auch viel mit Haltung, Denke zu tun hat, unabh├Ąngig davon, ob wir selbst

00:59:05.340 –> 00:59:11.260

aus Kunst und Kultur kommen oder ob wir zu den Personen geh├Âren, die eine gewisse Vorstellung

00:59:11.260 –> 00:59:16.260

von Kunst und Kultur an der Stelle haben und auch die Einfl├╝sse von Technologien, die

00:59:16.260 –> 00:59:21.940

hier jetzt das eine oder andere ver├Ąndern, wo durchaus auch sehr interessante Diskussionen

00:59:21.940 –> 00:59:27.000

aufkommen. Und da bin ich total gespannt, mit euch gemeinsam auf diesen Bereich morgen

00:59:27.000 –> 00:59:31.180

noch mal zu schauen. Insofern seid ihr ganz, ganz herzlich eingeladen, morgen um 8 Uhr

00:59:31.180 –> 00:59:36.940

wieder mit dabei zu sein und in diesen Austausch einzusteigen mit dem Raumtitel “Technologien

00:59:36.940 –> 00:59:42.700

Kunst und Kultur mit der Fragestellung “Wie ver├Ąndern Technologien Kunst und Kultur?” hier

00:59:42.700 –> 00:59:47.900

gemeinsam in die Reflexion einzusteigen und mal zu schauen, in welche Richtung sich der Raum dann

00:59:47.900 –> 00:59:52.660

gemeinsam auch entwickelt. In diesem Sinne vielen, vielen lieben Dank f├╝rs Mitmachen, f├╝r die tollen

00:59:52.660 –> 00:59:57.220

Beitr├Ąge, f├╝r die tollen Beispiele, die wirklich auch diese Komplexit├Ąt heute aufgemacht haben,

00:59:57.220 –> 01:00:03.700

da gezeigt haben, wie schwierig es hier auch ist, wirklich L├Âsungen zu finden. Und ja, ich w├╝nsche

01:00:03.700 –> 01:00:08.940

euch einen wundervollen Tag und freue mich auf morgen. In diesem Sinne bis dahin. Ciao.

3 Myths Debunked ÔÇô When Science Creates Knowledge! | Dr Yasemin Yazan

When Science Creates Knowledge!

Unfortunately, there is a lot of false knowledge on the market. Be it because, for example, research results are misinterpreted or false causalities are made, or because they are transferred to other contexts that were not even the subject of the study.

We pick 3 myths and show what science already knows:

- Why Maslow's hierarchy of needs is not a reliable basis for motivation

- Why personality tests are questionable as a basis for personnel decisions

- Why a quota is needed as an effective measure against Unconscious Bias

Data Protection Declaration

Declaration Of Consent

Congratulations - your download is waiting for you in your mailbox!