Gehirnfutter f├╝r Pioniergeister: Was steckt hinter Robotik und Automatisierung  & wie wirken sie sich auf die Arbeitswelt aus? Das ist die Fragestellung mit der wir uns in Raum #858 des Deep Talk Clubs unter dem Dachthema „Pioniergeist mit Hirn“ befassen. H├Âre selbst, welche Beispiele aufgegriffen wurden und welche Perspektiven im Dialog entstanden sind…

Transkription: ­čçę­č笭čçĘ­čçş­č玭čç╣ #858 Robotik, Automatisierung & Arbeitswelt | Von Dr. Yasemin Yazan

00:00:00.000 –> 00:00:03.200

Einen wundersch├Ânen guten Morgen w├╝nsche ich.

00:00:03.200 –> 00:00:09.920

Ja, heute machen wir weiter mit dem Thema Robotik, Automatisierung und Arbeitswelt.

00:00:09.920 –> 00:00:13.920

Und darunter wollen wir uns mal anschauen, was steckt denn eigentlich hinter

00:00:13.920 –> 00:00:17.280

den Begriffen Robotik und Automatisierung?

00:00:17.280 –> 00:00:21.000

Und wie wirkt sich das Ganze auf die Arbeitswelt aus?

00:00:21.000 –> 00:00:25.320

Und ja, dazu bin ich sehr gespannt,

00:00:25.320 –> 00:00:29.440

welche Impulse ihr dann auch mit reinbringt oder Beispiele.

00:00:29.840 –> 00:00:35.420

Ich habe auch noch mal ein bisschen was vorbereitet und mitgebracht und steige damit gerne ein

00:00:35.420 –> 00:00:39.060

und dann k├Ânnen wir ja gucken, welche Gedanken dadurch auch entstehen.

00:00:39.060 –> 00:00:45.200

Zum einen habe ich mal nachgesehen auf Wikipedia, was steht denn eigentlich unter dem Begriff

00:00:45.200 –> 00:00:47.520

Robotik, was versteht man darunter?

00:00:47.520 –> 00:00:53.260

Und da steht, ich zitiere, „Das Themengebiet der Robotik, auch Robotertechnik, befasst

00:00:53.260 –> 00:01:01.620

sich mit dem Versuch, das Konzept der Interaktion mit der physischen Welt auf Prinzipien der

00:01:01.620 –> 00:01:08.320

Informationstechnik sowie auf eine technisch machbare Kinetik zu reduzieren. Der Begriff

00:01:08.320 –> 00:01:15.940

des Roboters beschreibt dabei eine Entit├Ąt, welche diese beiden Konzepte in sich vereint,

00:01:15.940 –> 00:01:23.240

indem sie die Interaktion mit der physischen Welt auf Basis von Sensoren, Aktoren und

00:01:23.240 –> 00:01:26.840

Informationsverarbeitung umsetzt. Kernbereich der Robotik ist die

00:01:26.840 –> 00:01:31.200

Entwicklung und Steuerung solcher Roboter. Sie umfasst Teilgebiete der

00:01:31.200 –> 00:01:37.360

Informatik, insbesondere von k├╝nstlicher Intelligenz, der Elektrotechnik und das

00:01:37.360 –> 00:01:43.400

Maschinenbaus. Ziel der Robotik ist es, durch Programmierung ein gesteuertes

00:01:43.400 –> 00:01:47.920

Zusammenarbeiten von Roboter, Elektronik und Robotermechanik herzustellen. Das war

00:01:47.920 –> 00:01:51.760

jetzt mal so die Definition von Wikipedia. Und wenn wir jetzt auf den

00:01:51.760 –> 00:01:56.800

Begriff der Automatisierung noch mal schauen. Da habe ich gefunden, wird im

00:01:56.800 –> 00:01:59.680

Kontext von standardisierten Prozessen eingesetzt und f├╝hrt zur

00:01:59.680 –> 00:02:03.600

Effizienzsteigerung dadurch, dass mithilfe von verschiedenen Technologien

00:02:03.600 –> 00:02:09.400

der Benutzereingriff bis auf ein Minimum reduziert wird. Und was das Besondere

00:02:09.400 –> 00:02:13.640

jetzt daran ist, wenn wir eben diese verschiedenen Technologien zusammen

00:02:13.640 –> 00:02:18.600

f├╝hren, darunter f├Ąllt dann sowas wie zum Beispiel k├╝nstliche Intelligenz,

00:02:18.600 –> 00:02:26.600

Automatisierungstechnologie, darunter zu verstehen kognitive Automatisierung, maschinelles Lernen,

00:02:26.600 –> 00:02:33.640

Gesch├Ąftsprozessautomatisierung und Robotic Automation, Prozessautomation, abgek├╝rzt

00:02:33.640 –> 00:02:34.640

RPA.

00:02:34.640 –> 00:02:40.880

Und im Ergebnis sprechen wir dann, wenn wir diese Kombination betrachten, sozusagen von

00:02:40.880 –> 00:02:46.800

Intelligent Automation, auch abgek├╝rzt IA, also I-A im Deutschen.

00:02:46.800 –> 00:02:51.640

Und das erm├Âglicht, dass wir als Benutzer dieser Systeme nicht mehr ├╝ber den Prozess

00:02:51.640 –> 00:02:56.320

nachdenken brauchen, sondern ├╝ber Ergebnisse bzw. Ziele.

00:02:56.320 –> 00:03:02.200

Auch die Verkn├╝pfung von Schnittstellen werden dem User in Zukunft keine Kopfschmerzen mehr

00:03:02.200 –> 00:03:03.200

bereiten.

00:03:03.200 –> 00:03:07.360

Heute ist es ja so, dass wir teilweise eben auch dar├╝ber nachdenken d├╝rfen, wie harmonieren

00:03:07.360 –> 00:03:13.200

denn diese ganzen Systeme, die wir da einsetzen, miteinander, wie kann man die eben auch verkn├╝pfen,

00:03:13.200 –> 00:03:14.200

funktioniert das?

00:03:14.200 –> 00:03:20.120

Manchmal gibt es Herausforderungen und diese Kombination der Technologien wird dann eben

00:03:20.120 –> 00:03:27.400

entsprechend auch m├Âglich machen, dass wir zunehmend per quasi Mausklick sozusagen Systeme

00:03:27.400 –> 00:03:32.280

miteinander in Zukunft auch verbinden, ohne gro├čartig noch irgendwie was machen zu m├╝ssen.

00:03:32.280 –> 00:03:36.560

Das ist teilweise heute auch schon m├Âglich und wird zunehmend immer mehr.

00:03:36.560 –> 00:03:42.240

Das hei├čt, wir sprechen in diesem Zusammenhang zum Beispiel von einer Intelligenz, die optimierungsbed├╝rftige

00:03:42.240 –> 00:03:43.320

Prozesse entdeckt.

00:03:43.320 –> 00:03:46.080

Also selbst aktiv agiert.

00:03:46.080 –> 00:03:51.600

Wir sprechen gleichzeitig von einer Intelligenz, die lernt und damit auch adaptiv ist.

00:03:51.600 –> 00:03:56.600

Und wir sprechen zum Beispiel auch von einer Intelligenz, die Probleme beseitigt, bevor

00:03:56.600 –> 00:03:57.600

sie auftreten.

00:03:57.600 –> 00:04:03.640

Also pr├Ądikativ arbeitet und Probleme anhand von Wahrscheinlichkeiten vorhersagt, bevor

00:04:03.640 –> 00:04:05.200

sie ├╝berhaupt eintreten.

00:04:05.200 –> 00:04:08.400

Ja, soweit vielleicht erstmal so zum Einstieg.

00:04:08.400 –> 00:04:10.840

Und da bin ich mal gespannt, was ihr dazu sagt.

00:04:10.840 –> 00:04:13.880

Vielleicht gibt es auch den einen oder anderen, der sich in den Bereichen gut auskennt und

00:04:13.880 –> 00:04:17.160

vielleicht auch ein paar Impulse nochmal mit reinbringen kann, vielleicht auch konkrete

00:04:17.160 –> 00:04:22.200

Beispiele, sodass wir einfach mal schauen k├Ânnen, was eben auch zusammen und gemeinsam

00:04:22.200 –> 00:04:23.880

daraus eben auch entstehen kann.

00:04:23.880 –> 00:04:28.840

Und in diesem Sinne seid ihr wie jeden Morgen auch heute Morgen wieder herzlich dazu eingeladen,

00:04:28.840 –> 00:04:29.840

mit dazu zu kommen.

00:04:29.840 –> 00:04:34.040

F├╝r die, die heute zum ersten Mal mit dabei sind, nochmal kurz der Hinweis, dass wir den

00:04:34.040 –> 00:04:37.320

Raum aufzeichnen und dass das Ganze nachher auch ver├Âffentlicht wird.

00:04:37.320 –> 00:04:40.960

Das hei├čt, wer mit dazu kommt, ist automatisch damit einverstanden.

00:04:40.960 –> 00:04:44.960

Und dann haben wir drei kleine Raumregeln.

00:04:44.960 –> 00:04:50.000

Erstens ein Profilfoto, auf dem ihr klar zu erkennen seid von Nachnamen und mindestens

00:04:50.000 –> 00:04:55.480

Einsatz in der Bio, einfach um sicherzustellen, dass es sich um ernsthafte Beitr├Ąge und keine

00:04:55.480 –> 00:04:56.800

Klapphaustrolle handelt.

00:04:56.800 –> 00:05:01.400

Wer das aus irgendwelchen Gr├╝nden nicht m├Âchte, anonym bleiben will oder ├Ąhnliches, hat nat├╝rlich

00:05:01.400 –> 00:05:05.320

auch gerne die M├Âglichkeit, einfach den Chat an der Stelle zu nutzen.

00:05:05.320 –> 00:05:13.000

Ja, und ich m├Âchte gerne dann auch bei der Gelegenheit durchaus noch mal etwas aufgreifen,

00:05:13.000 –> 00:05:18.080

was dann gestern auch im Chat noch mal mit dabei war. Wir haben ja gestern schon, nee,

00:05:18.080 –> 00:05:25.040

vorgestern war das, glaube ich, vorgestern haben wir dar├╝ber gesprochen, ├╝ber auch KI und

00:05:25.040 –> 00:05:29.840

Entwicklungen und Auswirkungen auf dem Arbeitsmarkt. Und da kam dann gegen Ende,

00:05:29.840 –> 00:05:32.960

das war allerdings schon zu sp├Ąt, um das aufzugreifen, ich habe es dann zu sp├Ąt erst

00:05:32.960 –> 00:05:38.960

gesehen, ging es dann auch noch mal darum, dass eben auch diskutiert wird, so nach dem

00:05:38.960 –> 00:05:45.600

Motto, dass es irgendwas in Zukunft geben soll in Richtung Zertifizierung oder Zertifikate,

00:05:45.600 –> 00:05:51.720

dass es zum Beispiel KI-frei oder sowas entwickelt wurde. Da musste ich ehrlich gesagt etwas

00:05:51.720 –> 00:05:56.400

schmunzeln, als ich das dann gelesen habe, weil das ist eben nach wie vor aus unserer

00:05:56.400 –> 00:06:01.640

alten Denke heraus. Das hei├čt, gerade das Beispiel, was ich jetzt aufgemacht habe mit

00:06:01.640 –> 00:06:07.400

diesen „Wir werden in Zukunft nur noch l├Âsungsorientiert oder ergebnisorientiert denken“, aber nicht

00:06:07.400 –> 00:06:13.120

mehr im Hinblick gro├čartig ├╝ber den Prozess an vielen Stellen nachdenken m├╝ssen, weil

00:06:13.120 –> 00:06:16.640

das eben gewisse Systeme in der Kombination auch f├╝r uns ├╝bernehmen.

00:06:16.640 –> 00:06:23.400

Und wenn ich mir jetzt dann anschaue, so was wie Zertifikate oder sonst irgendwas, kann

00:06:23.400 –> 00:06:26.880

ich nur sagen, na ja gut, also zum einen stellt sich die Frage, wie l├Ąsst sich das ├╝berhaupt

00:06:26.880 –> 00:06:27.880

├╝berpr├╝fen?

00:06:27.880 –> 00:06:29.320

Das kann ich gar nicht ├╝berpr├╝fen.

00:06:29.320 –> 00:06:34.680

Von daher ist eigentlich so ein Zertifikat im Grunde genommen auch in Anf├╝hrungsstrichen

00:06:34.680 –> 00:06:35.680

nichts wert.

00:06:35.680 –> 00:06:40.760

Und abgesehen davon l├Ąsst diese sich auch nicht vermeiden, dass jemand behauptet, die

00:06:40.760 –> 00:06:44.320

Inhalte selbst erstellt zu haben, die vielleicht auch nicht erstellt sind.

00:06:44.320 –> 00:06:45.840

Also man kann das gar nicht ├╝berpr├╝fen.

00:06:45.840 –> 00:06:50.280

Also die ├ťberpr├╝fbarkeit ist an dieser Stelle einfach nicht gegeben.

00:06:50.280 –> 00:06:56.400

Und das andere ist halt dieses, ├Ąhnlich wie mit dem Kopieren oder anderen Sachen, die

00:06:56.400 –> 00:07:01.040

wir schon aufgegriffen haben an verschiedenen Stellen. Die Frage ist, braucht es hier in

00:07:01.040 –> 00:07:06.680

dem Zusammenhang nicht auch ein gewisses Umdenken sozusagen, also ein Umdenken in Bezug auf

00:07:06.680 –> 00:07:12.600

„Wir d├╝rfen nicht abschreiben, wir d├╝rfen nicht kopieren“? Letztens habe ich mit jemandem

00:07:12.600 –> 00:07:18.120

im Austausch, da ging es dann auch um solche Aspekte wie Urhebergeschichten und so weiter.

00:07:18.120 –> 00:07:22.320

Und da habe ich dann einfach mal die Frage gestellt, na ja gut, aber vielleicht brauchen

00:07:22.320 –> 00:07:25.240

Wir haben ja gar keinen Urheberschutz.

00:07:25.240 –> 00:07:29.920

Also vielleicht sollten wir das einfach mal ├╝berdenken, ob das ├╝berhaupt notwendig ist.

00:07:29.920 –> 00:07:35.680

Wie cool w├Ąre es denn vielleicht, wenn wir einfach diese Informationen zug├Ąnglich h├Ątten

00:07:35.680 –> 00:07:39.640

und dementsprechend dann daran auch weiterarbeiten k├Ânnen.

00:07:39.640 –> 00:07:43.080

Also auch das w├Ąre ja eine M├Âglichkeit, damit anders zu denken und umzugehen.

00:07:43.080 –> 00:07:48.200

Und das mal so als erste Gedanken in den Raum gestellt und dann bin ich einfach mal gespannt,

00:07:48.200 –> 00:07:50.400

welche Impulse jetzt auch nochmal von euch kommen.

00:07:50.400 –> 00:07:53.900

Einen wundersch├Ânen guten Morgen, lieber Marc. Was sagst du denn dazu?

00:07:53.900 –> 00:07:58.100

Guten Morgen in die Runde und einen tollen Start in die Woche w├╝nsche ich euch allen.

00:07:58.100 –> 00:08:03.900

Zwei Begriffe w├╝rde ich gerne noch erg├Ąnzen. Du hast das ja schon sch├Ân erkl├Ąrt und uns Wikipedia da zitiert.

00:08:03.900 –> 00:08:08.600

Und ich habe mich bei der Besch├Ąftigung mit dem Thema noch gefunden, dass dann die Ingenieure,

00:08:08.600 –> 00:08:13.100

dass es da auch noch einen gro├čen Unterschied gibt und einmal zwar Robotik ist ja ein Riesenthema

00:08:13.100 –> 00:08:18.100

und es wird auch teilweise noch unterschieden zwischen Automatisierung und unter Automatisierung

00:08:18.100 –> 00:08:22.380

versteht man das Ersetzen des menschlichen Handelns und die Mechanisierung,

00:08:22.380 –> 00:08:27.460

die Erweiterung der menschlichen F├Ąhigkeiten in punkto Kraft, Gr├Â├če, Ausdauer.

00:08:27.460 –> 00:08:31.780

Und was ich total spannend finde, ich hatte gestern ein bisschen Zeit, mich mit dem Thema zu besch├Ąftigen

00:08:31.780 –> 00:08:36.500

und wir haben ja schon viele R├Ąume gemacht und auch da, wenn man sich mit dem Thema besch├Ąftigt

00:08:36.500 –> 00:08:40.460

und unsere gro├če Suchmaschine zur Hilfe nimmt, kommt es auf unseren Blickwinkel an.

00:08:40.460 –> 00:08:43.780

Ich finde ganz, ganz schreckliche Sachen von furchtbar, furchtbar, furchtbar.

00:08:43.780 –> 00:08:47.660

Ich kann aber auch eine andere Position einnehmen.

00:08:47.660 –> 00:08:51.900

Ich m├Âchte gerne das Thema, die Verein stehen, mit dem Positiven anfangen.

00:08:51.900 –> 00:08:55.380

Es gibt halt Untersuchungen, die findet man auch zuhauf im Internet.

00:08:55.380 –> 00:08:57.900

Menschen haben Angst vor Robotern und so weiter.

00:08:57.900 –> 00:09:02.300

Aber es gibt auch mittlerweile Fakten, das sagst du ja immer, hinterfragen,

00:09:02.300 –> 00:09:05.340

ist die Angst denn berechtigt? Was passiert denn wirklich?

00:09:05.340 –> 00:09:07.740

Und im asiatischen Raum hat man festgestellt,

00:09:07.740 –> 00:09:12.580

dass bei diesen Asien-Pacific-Regionen,

00:09:12.580 –> 00:09:19.100

da gibt es kaum Arbeitslosigkeit. Also ├╝berall in S├╝dkorea, Japan und Singapur, wo die schon

00:09:19.100 –> 00:09:23.260

sehr fortgeschritten sind mit der Automatisierung, hat das nicht zur Arbeitslosigkeit gef├╝hrt,

00:09:23.260 –> 00:09:28.500

sondern im Gegenteil zu mehr Besch├Ąftigung. Und die zweite Frage, ich glaube, in dem Raumthema

00:09:28.500 –> 00:09:34.140

stand gestern noch, wer steckt da dahinter? Also Roboter sind auf jeden Fall eine Schl├╝sseltechnologie

00:09:34.140 –> 00:09:39.020

und total spannend, fand ich auch, wenn man sich dann auch damit besch├Ąftigt, das ist

00:09:39.020 –> 00:09:41.960

jetzt nicht ganz Thema dieses Raumes, aber wenn man wei├č, dass das eine

00:09:41.960 –> 00:09:45.600

Schl├╝sseltechnologie ist, wer steckt da dahinter? Unter anderem hatten wir in

00:09:45.600 –> 00:09:49.440

Deutschland eine ganz, ganz tolle Firma in Augsburg, die in Europa Marktf├╝hrer

00:09:49.440 –> 00:09:54.600

war f├╝r Robotik. Die ist mittlerweile zu 100 Prozent im chinesischen Besitz und

00:09:54.600 –> 00:09:57.120

in Deutschland gibt es nur noch eine Firma, auf die wir eigentlich gekommen

00:09:57.120 –> 00:10:00.760

d├╝rfen, die sich auch mit Robotik besch├Ąftigt. Ansonsten liegen da die

00:10:00.760 –> 00:10:07.040

Japaner und S├╝dkorea vor, so dass wir auch da zumindest, wenn wir nicht den Blick

00:10:07.040 –> 00:10:11.160

in der Statistik finden, dass Deutschland immer noch ganz vorne mit dabei ist,

00:10:11.160 –> 00:10:15.520

wenn man googelt, also welche Hersteller stellen ├╝berhaupt Robotik her, aber wenn

00:10:15.520 –> 00:10:18.640

man dann wieder tiefer geht und sich andere Statistiken anguckt, geh├Ârt diese

00:10:18.640 –> 00:10:22.280

Firma, die der Markt findet, leider gar kein deutsches Unternehmen mehr, sondern

00:10:22.280 –> 00:10:25.080

einem Chinesen.

00:10:25.080 –> 00:10:28.680

Ja wunderbar, vielen, vielen lieben Dank. Da waren ja auch schon verschiedene

00:10:28.680 –> 00:10:31.920

Aspekte mit dabei. Dann lass uns doch direkt auch J├╝rgen noch mal mit einbinden

00:10:31.920 –> 00:10:34.800

und gucken, welche Aspekte hier noch mal mit dazu kommen und dann k├Ânnen wir

00:10:34.800 –> 00:10:37.800

gerne auch Querbez├╝ge herstellen. Einen wundersch├Ânen guten Morgen, lieber J├╝rgen.

00:10:37.800 –> 00:10:44.720

Guten Morgen, liebe Yasemin. Guten Morgen, Marc. Guten Morgen, alle im Raum. Ja,

00:10:44.720 –> 00:10:49.280

ich springe jetzt gleich mal auf die B├╝hne, weil ich den Faden nicht verliere. Ich m├Âchte mich an

00:10:49.280 –> 00:10:58.480

zwei Dingen festmachen, die du in deiner Intro vorgestellt hast. Und zwar ist das einmal,

00:10:58.480 –> 00:11:06.920

habe ich erkannt, gem├Ą├č deiner Spezifikation, dass es drei Stufen gibt. Drei Stufen. Es gibt eine

00:11:06.920 –> 00:11:14.920

eine attributlose Automatisierung. Es gibt grunds├Ątzlich eine Automatisierung. Es gibt

00:11:14.920 –> 00:11:24.400

eine Robotik und es gibt eine intelligente Automatisierung. Die drei Stufen habe ich mal

00:11:24.400 –> 00:11:31.120

f├╝r mich so jetzt f├╝r unsere Diskussion in Sicherheit gebracht. Und im Hinblick auf die

00:11:31.120 –> 00:11:39.920

Unterscheidung, die du getroffen hast, m├Âchte ich eines noch erg├Ąnzen. Und zwar zwischen Robotik

00:11:39.920 –> 00:11:52.000

und intelligenter Automatisierung wird eine Unterscheidung getroffen, dass der erste Teil

00:11:52.000 –> 00:11:59.600

Teilbereich der Robotik in einer festverdrahteten, regelbasierten Prozessstruktur l├Ąuft.

00:11:59.600 –> 00:12:07.560

Der l├Ąuft ab, ich wei├č nicht, ob einer mal von euch im VW-Werk war oder im BMW-Werk.

00:12:07.560 –> 00:12:14.960

Ich habe mir das angetan als Fachfremder, um mir diese Robotikstra├čen anzusehen und

00:12:14.960 –> 00:12:24.320

Das ist absolut beeindruckend, aber es l├Ąuft auf den M├╝h-Millimeter exakt genau nach ganz

00:12:24.320 –> 00:12:32.440

bestimmten Regeln ab. Die Unterscheidung zur intelligenten Automatisierung und du sprachst

00:12:32.440 –> 00:12:39.480

es bereits begrifflich auch an, Livias Mihn, ist, dass diese nicht auf Regeln basiert,

00:12:39.480 –> 00:12:49.500

sondern auf Entscheidungen, was ja Intelligenz voraussetzt. Und das f├╝hrt mich zu dem Thema,

00:12:49.500 –> 00:12:59.980

in dem ich zum Teil ├╝ber l├Ąngere Zeit besch├Ąftigt war, n├Ąmlich die Prozessanalyse und die

00:12:59.980 –> 00:13:07.420

Prozessoptimierung. Und wenn ich diese zwei Positionen mir anschaue, der Ausgestaltung,

00:13:07.420 –> 00:13:15.060

wie automatisiere, wie robotisiere ich meine Gesch├Ąftsprozesse, komme ich logischerweise zu

00:13:15.060 –> 00:13:21.540

dem Ergebnis als Grundlage, wesentlich Grundlage, nein nicht nur wesentlich, sondern sie ist

00:13:21.540 –> 00:13:28.340

bedingungslos, brauche ich Daten. Und das ist dieser Teilbereich, in dem ich zum Teil t├Ątig

00:13:28.340 –> 00:13:35.180

war, dieses Prozessmining, Prozessanalyse und Analysen zu betreiben, welche Daten fallen

00:13:35.180 –> 00:13:43.100

denn an welchen St├╝tzstellen dieses Prozesses an? Um dann, und ich sage ganz bewusst, um dann eine

00:13:43.100 –> 00:13:48.780

Entscheidung zu treffen, f├╝r welchen Weg entscheide ich mich f├╝r die Roboterisierung,

00:13:48.780 –> 00:13:58.660

n├Ąmlich sind meine Daten qualitativ so gut und meine Algorithmen so gut, oder nur so gut,

00:13:58.660 –> 00:14:08.260

dass ich sie regelbasieren muss oder sind sie so gut, dass ich sogar wenn dann Schleifen oder

00:14:08.260 –> 00:14:15.100

Kontrollschleifen mit Qualit├Ątskriterien einpflegen kann, die dann entscheiden, wie

00:14:15.100 –> 00:14:24.820

diese Automatisierung weiterl├Ąuft. Ein sehr spannendes Thema insbesondere vor der aktuellen

00:14:24.820 –> 00:14:32.380

Entwicklung. Das m├Âchte ich euch nur noch mal auch in Anbindung an unsere letzten R├Ąume

00:14:32.380 –> 00:14:45.300

mitteilen. Microsoft ist es nach Kennern gelungen SAP mehr oder weniger zu kujonieren und zu zwingen

00:14:45.300 –> 00:14:56.740

ihre Microsoft Bots in ihre Standardanwendungen aufzunehmen. Also Bots, die in Richtung k├╝nstliche

00:14:56.740 –> 00:15:05.580

Intelligenz gehen. Und die erste Erfolgsmeldung von SAP ist auch schon ver├Âffentlicht worden.

00:15:05.580 –> 00:15:10.380

Das hei├čt, wer gibt hier die PACE vor, meine Lieben?

00:15:10.380 –> 00:15:15.980

Die PACE gibt derjenige vor, der die Daten besitzt.

00:15:15.980 –> 00:15:19.860

Und dann sind wir wieder bei unserem gro├čen Thema Digitalisierung.

00:15:19.860 –> 00:15:21.660

Vielen Dank f├╝rs Zuh├Âren.

00:15:21.660 –> 00:15:25.740

Ja wunderbar, vielen, vielen lieben Dank.

00:15:25.740 –> 00:15:31.940

Und das ist total spannend an der Stelle, weil gerade der Aspekt mit den Daten total relevant ist.

00:15:31.940 –> 00:15:37.340

auch in Bezug auf die Aspekte, die wir mit angesprochen haben, so was wie zum Beispiel

00:15:37.340 –> 00:15:43.460

Datenschutz spielt jetzt hier eine ganz gro├če Rolle in dem Zusammenhang. Und hier muss tats├Ąchlich

00:15:43.460 –> 00:15:48.860

ganz viel auch diskutiert und auch ├╝berlegt werden, denn auf der einen Seite hat es nat├╝rlich

00:15:48.860 –> 00:15:55.060

sehr, sehr positive Seiten, dass im Sinne des Datenschutzes eben auch nicht allzu viele

00:15:55.060 –> 00:15:59.420

Daten eingesammelt werden k├Ânnen oder nicht auf Dauer gespeichert werden k├Ânnen oder,

00:15:59.420 –> 00:16:04.940

oder oder. Hier gibt es ja ganz verschiedene Bereiche und je nach Konstellation ist die

00:16:04.940 –> 00:16:09.740

Verweildauer unterschiedlich und so weiter und so fort. Und auf der anderen Seite funktionieren

00:16:09.740 –> 00:16:15.380

eben diese intelligenten Systeme eben entsprechend auch mit den Daten. Und die Frage ist nat├╝rlich

00:16:15.380 –> 00:16:20.860

ein St├╝ck weit, wenn wir die Daten beispielsweise an verschiedenen Stellen nicht einsammeln

00:16:20.860 –> 00:16:28.540

k├Ânnen, also nicht d├╝rfen und andere es aber tun d├╝rfen, in Anf├╝hrungsstrichen,

00:16:28.540 –> 00:16:32.700

Was bedeutet das dann auch im Umkehrschluss in Bezug auf eine Entwicklung auf zum Beispiel

00:16:32.700 –> 00:16:34.540

gesellschaftlicher Ebene f├╝r Deutschland?

00:16:34.540 –> 00:16:35.540

J├╝rgen.

00:16:35.540 –> 00:16:43.460

Ja, du sprichst das Thema, so interpretiere ich dich, liebe Yasemin, du sprichst das Schl├╝sselthema

00:16:43.460 –> 00:16:45.620

der Macht der Plattformen an.

00:16:45.620 –> 00:16:49.540

Bitte korrigiere ich, korrigiere mich, wenn ich falsch liege.

00:16:49.540 –> 00:16:55.220

Das meinte ich mit meiner Begrifflichkeit, der hat die Macht, wo die Daten liegen.

00:16:55.220 –> 00:17:00.200

Und mit den Daten, unter Daten subsumiere ich auch deren Nutzung unter bestimmten

00:17:00.200 –> 00:17:01.860

algorithmischen Verkn├╝pfungen.

00:17:01.860 –> 00:17:07.140

Und genau das ist ein ganz wesentlicher Punkt, den ich

00:17:07.140 –> 00:17:12.220

unumwunden abnicke. Das ist die gro├če Herausforderung, finde

00:17:12.220 –> 00:17:17.660

ich, solchen Institutionen wie Microsoft

00:17:17.660 –> 00:17:21.940

und Apple und Google, die eben auf, die sitzen auf,

00:17:22.420 –> 00:17:27.260

Ich sage immer, auf den riesigen Getreidefeldern, aus denen man das

00:17:27.260 –> 00:17:29.260

zuk├╝nftige Brot macht.

00:17:29.260 –> 00:17:34.100

Und wer diese Getreidefelder besitzt und sie hegt und pflegt,

00:17:34.100 –> 00:17:37.100

der bestimmt, welches Brot wir essen.

00:17:37.100 –> 00:17:42.020

Und lass mich eins bitte noch einwerfen, auch das war schon mal Thema

00:17:42.020 –> 00:17:44.020

in einem unserer R├Ąume.

00:17:44.020 –> 00:17:50.180

Auch aus meiner Erfahrung heraus in der Prozessoptimierung,

00:17:50.180 –> 00:17:55.340

Die Prozessoptimierung, die ja Grundlage ist und die Datengrundlage

00:17:55.340 –> 00:18:00.700

auch schafft, l├Ąuft auch wie alles andere unter einem ├Âkonomischen

00:18:00.700 –> 00:18:03.500

Input-Output-Kosten-Nutzen-Aspekt.

00:18:03.500 –> 00:18:07.620

Ich will damit nur sagen, unumwunden abzunicken,

00:18:07.620 –> 00:18:13.460

dass unsere ganze Welt in Zukunft verautomatisiert oder robotisiert

00:18:13.460 –> 00:18:18.060

ist, ist meines Erachtens kein zielf├╝hrender Ansatz.

00:18:18.060 –> 00:18:23.380

zielf├╝hrender Ansatz, denn es wird immer die M├Âglichkeit geben,

00:18:23.380 –> 00:18:29.540

den ├Âkonomischen Nutzen eher noch auf der hessischen Seite zu sehen,

00:18:29.540 –> 00:18:35.660

gerade was physische Routinen betrifft, nicht so sehr geistige

00:18:35.660 –> 00:18:41.900

Routinen, als diese sehr teuren und das auch noch im Grunde sehr

00:18:41.900 –> 00:18:45.700

pflegebed├╝rftigen Systemen zu nutzen.

00:18:45.700 –> 00:18:49.700

bed├╝rftigen Systemen zu ├╝bergeben.

00:18:49.700 –> 00:18:53.700

Das sollte man nicht aus dem Auge verlieren.

00:18:53.700 –> 00:18:57.700

Vielen lieben Dank.

00:18:57.700 –> 00:19:01.700

Ich switche auch gerne gleich zu Marc r├╝ber. Ich m├Âchte kurz noch mal den Hinweis

00:19:01.700 –> 00:19:05.700

geben, dass wir den Raum aufzeichnen, das hei├čt, wer mit auf die B├╝hne kommt,

00:19:05.700 –> 00:19:09.700

ist automatisch damit einverstanden und wir haben drei

00:19:09.700 –> 00:19:13.700

kleine Raumregeln, um hier mit dazu zu kommen, in die Interaktionen einzusteigen

00:19:13.700 –> 00:19:18.620

zu steigen auf der B├╝hne. Eines davon ist ein Profilfoto, auf dem ihr klar zu erkennen

00:19:18.620 –> 00:19:23.060

seid. Vor- und Nachnahme und mindestens einen Satz in der Bio, einfach um sicherzustellen,

00:19:23.060 –> 00:19:27.820

dass es um ernst gemeinte Beitr├Ąge sich handelt und keine Klapphaustrolle. Wer das aus irgendwelchen

00:19:27.820 –> 00:19:33.260

Gr├╝nden nicht m├Âchte, ist herzlich eingeladen, seine Gedankeng├Ąnge oder auch Fragen sozusagen

00:19:33.260 –> 00:19:37.140

├╝ber den Chat mit hier rein zu geben. Das vielleicht nochmal als Hinweis, damit ihr

00:19:37.140 –> 00:19:41.060

entsprechend das ber├╝cksichtigen k├Ânnt, ab├Ąndern k├Ânnt oder eben ├╝ber den Chat

00:19:41.060 –> 00:19:44.380

euch beteiligen k├Ânnt. Marc, du wolltest gerne hiermit anschlie├čen.

00:19:44.380 –> 00:19:48.660

Ja, ich m├Âchte gerne nochmal eine andere Blickrichtung auf das Thema geben und

00:19:48.660 –> 00:19:52.180

zwar, ich habe ja gesagt, ich habe mich am Sonntag damit besch├Ąftigt und je nachdem

00:19:52.180 –> 00:19:55.340

welchen Gesichtspunkt ich habe, finde ich unterschiedliche Berichte und meine

00:19:55.340 –> 00:19:58.580

Meinung ├Ąndert sich dann auch starkartig. Und ich bin auf einen interessanten

00:19:58.580 –> 00:20:02.660

Bericht gesto├čen von der EU und zwar gibt es in der EU ein Projekt Reela und

00:20:02.660 –> 00:20:05.900

da geht es nicht darum, was der J├╝rgen gesagt hat, auch nat├╝rlich gibt es das,

00:20:05.900 –> 00:20:09.620

Prozessoptimierung, wenn wir von der Produktion sprechen.

00:20:09.620 –> 00:20:14.380

Es gibt aber auch eine d├Ąnische Professorin und ganz, ganz viele Menschen besch├Ąftigen sich mit dem Thema,

00:20:14.380 –> 00:20:17.660

wo die Zukunft auch darin liegen kann, in anderen Bereichen.

00:20:17.660 –> 00:20:23.620

Wie kann eine Zusammenarbeit mit einer Maschine, mit einem Roboter, zusammen mit den Menschen aussehen,

00:20:23.620 –> 00:20:25.420

wo der Mensch also unterst├╝tzt wird?

00:20:25.420 –> 00:20:28.660

Einmal im Gesundheitsbereich, dass es da mittlerweile Systeme gibt,

00:20:28.660 –> 00:20:30.900

wo Querschnittsgelente wieder laufen k├Ânnen,

00:20:30.900 –> 00:20:35.220

weil da die Robotik und die Maschine Aufgaben ├╝bernimmt, einmal im Krankenhaus.

00:20:35.220 –> 00:20:38.020

Und damit das ├╝berhaupt gew├Ąhrleistet werden kann,

00:20:38.020 –> 00:20:43.060

gibt es da auch Leute, die sich zusammentun und die sprechen explizit mit Endanwendern.

00:20:43.060 –> 00:20:46.660

Also das sind nicht nur Ingenieure oder Leute, die sagen, wir m├╝ssen Prozesse optimieren,

00:20:46.660 –> 00:20:50.100

sondern das sind Leute, die durchs Krankenhaus gehen und sagen, wir haben jetzt so einen Roboter

00:20:50.100 –> 00:20:54.580

und dann stellen die fest, dass der Roboter ganz toll ist, dass aber damit der Patient

00:20:54.580 –> 00:20:59.220

diesen Roboter nutzen kann, muss dieses Teil, ja, was dem Patienten hilft, auf den R├╝cken kommen.

00:20:59.220 –> 00:21:02.460

Das muss umgeschnallt werden. Gibt es da Prozesse, die wir vereinfachen k├Ânnen?

00:21:02.460 –> 00:21:06.780

Oder zum Beispiel, wenn ihr an die Gastronomie denkt, die haben ja Fachkr├Ąftemangel.

00:21:06.780 –> 00:21:08.780

├╝ber einer Gastronomie Fachkr├Ąftemangel.

00:21:08.780 –> 00:21:10.780

Nun, was kann denn jemand machen, der ein Restaurant hat?

00:21:10.780 –> 00:21:14.380

Der braucht auf jeden Fall einen Koch, da f├╝hrt kein Weg dran vorbei.

00:21:14.380 –> 00:21:16.380

Das Essen muss ja jemand machen.

00:21:16.380 –> 00:21:20.780

Aber wenn der niemand mehr findet, der bedient, dann werden da vielleicht irgendwann mal kleine Roboter hin und her fahren,

00:21:20.780 –> 00:21:22.780

die mich sogar auch erkennen.

00:21:22.780 –> 00:21:24.780

Finde ich das toll? Nein, gef├Ąllt mir nicht.

00:21:24.780 –> 00:21:27.780

Ich finde es immer pers├Ânlicher, wenn ich mit einem Kellner gehen kann.

00:21:27.780 –> 00:21:30.780

Bevor ich aber nie mehr in K├Âln Essen geben kann, w├╝rde ich auch akzeptieren,

00:21:30.780 –> 00:21:34.780

dass mir das Essen auf so einen fahrbaren Roboter hingegen gebracht wird.

00:21:34.780 –> 00:21:39.020

damit meine ich nur nicht ├╝berall geht es nur darum Geld zu sparen, also im Sinne von

00:21:39.020 –> 00:21:43.100

Herstellungsprozess, sondern es gibt auch viele Prozesse, wo es wirklich darum geht,

00:21:43.100 –> 00:21:47.620

wie k├Ânnen Maschinen Menschen in Zukunft unterst├╝tzen? Und der letzte Punkt, den ich

00:21:47.620 –> 00:21:51.580

da noch gefunden habe f├╝r mich, wir haben ja eine ├╝beralternde Gesellschaft und viele

00:21:51.580 –> 00:21:55.380

haben gar keine Kinder mehr. Auch die Kinderanzahl geht in Deutschland ja zur├╝ck. Wer kauft

00:21:55.380 –> 00:21:59.260

denn sp├Ąter mal f├╝r mich ein? Auch da wird es wahrscheinlich vielleicht Maschinen geben,

00:21:59.260 –> 00:22:02.980

dass ich anrufen kann bei dem Lebensmittelladen, den es noch gibt und sage, ich h├Ątte gerne

00:22:02.980 –> 00:22:07.420

Piste Wasser und wenn die niemand haben, der mir das bringt, dass dann fahrende

00:22:07.420 –> 00:22:10.260

Roboter unterwegs sind, wo ich mir das dann unten abholen kann.

00:22:10.260 –> 00:22:15.140

Also ich sehe das nicht nur schwarz oder wei├č, sondern das Feld ist so gro├č, dass

00:22:15.140 –> 00:22:18.340

es bestimmt auch Bereiche gibt, die ich mir jetzt noch nicht vorstellen kann. Das

00:22:18.340 –> 00:22:22.700

sind ja alles nur Illusionen und W├╝nsche, wo ich sagen muss, oh Mensch, gut, dass es

00:22:22.700 –> 00:22:27.700

das gibt. Das hilft mir jetzt pers├Ânlich und das schadet mir nicht.

00:22:28.900 –> 00:22:33.380

Ja, vielen, vielen lieben Dank. Und ja, der

00:22:33.380 –> 00:22:35.460

Blickwinkel ist an der Stelle

00:22:35.460 –> 00:22:36.780

tats├Ąchlich relevant, weil je nachdem,

00:22:36.780 –> 00:22:39.060

wie wir drauf gucken, kommen wir immer

00:22:39.060 –> 00:22:42.900

wieder zu auch unterschiedlichen

00:22:42.900 –> 00:22:44.220

Ergebnissen sozusagen. Und du hast jetzt

00:22:44.220 –> 00:22:45.580

gerade auch diesen Aspekt der

00:22:45.580 –> 00:22:47.500

├╝beralternden Gesellschaft

00:22:47.500 –> 00:22:50.980

angesprochen. Wir haben ja letztens auch

00:22:50.980 –> 00:22:53.100

├╝ber F├╝hrungskr├Ąfte oder Fachkr├Ąftemangel

00:22:53.100 –> 00:22:54.780

und so weiter auch gesprochen. Das hei├čt,

00:22:54.780 –> 00:22:56.700

hier sind ja tats├Ąchlich, also

00:22:56.700 –> 00:22:58.300

noch mal um das zu best├Ątigen, was du

00:22:56.700 –> 00:23:01.540

gerade gesagt hast, hier geht es nicht nur ausschlie├člich um Kosten-Nutzen-Faktor,

00:23:01.540 –> 00:23:07.220

sondern eben auch darum, dass vielleicht Stellen, die unbesetzt bleiben aktuell,

00:23:07.220 –> 00:23:12.620

eben durch solche Technologien auch langfristig betrachtet vielleicht auch unbesetzt bleiben

00:23:12.620 –> 00:23:18.620

k├Ânnen, weil man vielleicht auch weniger Human Resources an der Stelle sozusagen ben├Âtigt. Also

00:23:18.620 –> 00:23:22.740

wenn man vorher vielleicht bestimmte Aufgaben, identische Aufgaben zum Beispiel auf zehn

00:23:22.740 –> 00:23:26.520

Mitarbeiter verteilt hat, kann es sein, dass ich jetzt durch die neuen

00:23:26.520 –> 00:23:30.800

Technologien, die ich hier einsetzen kann, Automatisierung und intelligente Systeme

00:23:30.800 –> 00:23:36.400

zusammenf├╝hre, dass dann durch gewisse, durch die Abnahme von Routinet├Ątigkeiten

00:23:36.400 –> 00:23:41.360

beispielsweise und dann eben auch die intelligente Weiterentwicklung von

00:23:41.360 –> 00:23:46.080

L├Âsungsoptionen, Erkennung von Problemen und so weiter, dass dann eben dadurch

00:23:46.080 –> 00:23:51.120

auch die M├Âglichkeit entsteht, dass gerade auch dieses Thema Fachkr├Ąftemangel

00:23:51.120 –> 00:23:54.920

und so weiter, dadurch ein St├╝ck weit auch wieder aufgefangen werden kann.

00:23:54.920 –> 00:23:57.560

Also das man aus dieser Perspektive betrachtet.

00:23:57.560 –> 00:24:01.040

Dann, wenn wir nochmal diesen Aspekt mit den Daten aufgreifen,

00:24:01.040 –> 00:24:02.600

da gibt es auch verschiedene Perspektiven.

00:24:02.600 –> 00:24:04.880

Da k├Ânnen wir jetzt auf der einen Seite draufschauen mit

00:24:04.880 –> 00:24:09.440

ja, die M├Ąchtigen, die die Daten haben, die sind hier einfach

00:24:09.440 –> 00:24:14.440

anderen voraus oder man kommt in eine Abh├Ąngigkeit rein.

00:24:14.440 –> 00:24:17.520

Da k├Ânnte man jetzt diskutieren in die Richtung

00:24:17.520 –> 00:24:20.280

Muss man da die Monopole vielleicht schw├Ąchen?

00:24:20.280 –> 00:24:22.680

Auf irgendeine Art und Weise kann das ├╝berhaupt gelingen?

00:24:22.680 –> 00:24:25.040

Wie m├╝sste sich das gestalten?

00:24:25.040 –> 00:24:28.420

Weil es reicht ja dann an dieser Stelle auch nicht aus, diese Diskussion

00:24:28.420 –> 00:24:33.600

in einem Deutschland oder in einem Europa zu f├╝hren, sondern auch wenn Europa sich

00:24:33.600 –> 00:24:37.560

daf├╝r entscheiden w├╝rde, aber der Rest der Welt nicht mitmacht, hilft es an der

00:24:37.560 –> 00:24:41.860

Stelle auch nicht. Also auch diese H├╝rden sind zu sehen an der Stelle.

00:24:42.320 –> 00:24:49.040

Und dann gleichzeitig eben allgemein diese Diskussion mit dem ganzen Kontext

00:24:49.040 –> 00:24:54.440

Datenschutz. Das hei├čt auch schon in den letzten Jahren, nicht erst jetzt, sondern

00:24:54.440 –> 00:24:59.880

auch in den letzten Jahren, welche Verluste oder Entwicklungspotenziale

00:24:59.880 –> 00:25:04.480

haben wir als Deutschland oder Europa sozusagen jetzt schon verpasst, weil wir

00:25:04.480 –> 00:25:10.000

vor dem Hintergrund des Datenschutzes diese Daten eben nicht zugelassen haben, dass

00:25:10.000 –> 00:25:13.900

sie gesammelt werden k├Ânnen? Das ist mal die eine Fragestellung. Auf der anderen Seite

00:25:13.900 –> 00:25:19.660

ist es nat├╝rlich auch zu diskutieren, ja, aber was w├╝rde das denn dann bedeuten, wenn

00:25:19.660 –> 00:25:25.980

all das aufgehoben wird, Daten ├╝berall nur noch gesammelt werden? Ist das dann nicht

00:25:25.980 –> 00:25:32.100

auch eine, welche Gefahren ergeben sich dann daraus und welche Form der Demokratie entwickelt

00:25:32.100 –> 00:25:36.820

sich daraus eigentlich? Ist das ├╝berhaupt noch eine Demokratie an der Stelle mit vielen

00:25:36.820 –> 00:25:41.700

Aspekten und Stafetten, die man hier jetzt mit ber├╝cksichtigen kann, oder auch

00:25:41.700 –> 00:25:45.060

Zentralisierung, Dezentralisierung und so weiter sind alles Aspekte, die hier

00:25:45.060 –> 00:25:52.060

mit rein spielen. Und da haben wir auf jeden Fall auch nochmal, um das Ganze

00:25:52.060 –> 00:25:56.420

dann sp├Ąter auf politischer Ebene nochmal zu diskutieren,

00:25:56.420 –> 00:26:00.100

werden wir dann in ein paar Wochen auch nochmal R├Ąume haben. Wir k├Ânnen es

00:26:00.100 –> 00:26:04.060

im Prinzip immer wieder jetzt schon mal anstreifen, dass man deutlich sieht,

00:26:04.060 –> 00:26:10.260

welchen „Rattenschwanz“ die ganze Thematik auch mit sich bringt.

00:26:10.260 –> 00:26:14.180

Und dass es hier auf verschiedenen Ebenen tats├Ąchlich eben darum geht,

00:26:14.180 –> 00:26:15.900

drauf zu schauen und zu ├╝berlegen.

00:26:15.900 –> 00:26:20.420

Aus der Unternehmer-Sicht betrachtet, kann ich sagen,

00:26:20.420 –> 00:26:23.500

dass es in jedem Fall ein Problem darstellt.

00:26:23.500 –> 00:26:27.660

Offenkundig, wenn wir keine Daten einsammeln k├Ânnen,

00:26:27.660 –> 00:26:30.500

dann k├Ânnen wir eben im Wettbewerb nicht mehr mithalten.

00:26:30.500 –> 00:26:37.940

Wenn wir aber dann auf der gesellschaftspolitischen Ebene diskutieren, dann haben wir eben wieder

00:26:37.940 –> 00:26:40.660

andere Herausforderungen, die es zu meistern gilt.

00:26:40.660 –> 00:26:44.740

Und das zeigt, wie komplex dieses Thema an der Stelle ist und dass wir aber vor allen

00:26:44.740 –> 00:26:49.140

Dingen eben nicht alleine agieren, sondern immer im Zusammenspiel, also global das Ganze

00:26:49.140 –> 00:26:50.260

auch betrachten m├╝ssen.

00:26:50.260 –> 00:26:55.660

Das hei├čt, wenn jetzt so etwas wie in Italien wird irgendwas verboten oder so, uns das anschauen

00:26:55.660 –> 00:27:00.860

oder in Europa wird irgendwas verboten, stellt sich ja die Frage, was ist denn die Konsequenz

00:27:00.860 –> 00:27:05.900

daraus? Hei├čt es denn, dass die anderen nicht weitermachen oder h├Ąngen wir uns selbst damit

00:27:05.900 –> 00:27:11.980

auch ein St├╝ck weit komplett selbst ab? Und die Frage ist jetzt hier also, wie weit kann

00:27:11.980 –> 00:27:16.300

man das ├╝berhaupt verhindern oder was bedeutet das in der Konsequenz? Oder muss man diese

00:27:16.300 –> 00:27:20.140

Entwicklung eben nicht bis zu einem gewissen Teil, auch wenn es schmerzhaft ist, an der

00:27:20.140 –> 00:27:24.140

einen oder anderen Stelle sogar mitgehen, weil wir es eben nicht ausbremsen k├Ânnen?

00:27:24.140 –> 00:27:27.140

Und da bin ich mal gespannt, was ihr dazu sagt, Marc-J├╝rgen.

00:27:27.140 –> 00:27:30.140

Wollt ihr da noch mal anschlie├čen? Ja, gerne, J├╝rgen. Und dann Marc.

00:27:30.140 –> 00:27:35.140

Ja, als Erstes herzlichen Dank, lieber Marc, f├╝r deine Ausf├╝hrung.

00:27:35.140 –> 00:27:43.140

Du hast uns eigentlich wieder zur├╝ckgef├╝hrt auf das ureigentliche Thema,

00:27:43.140 –> 00:27:47.140

n├Ąmlich die Verbindung zur Arbeitswelt. Und daf├╝r meinen Dank.

00:27:47.140 –> 00:27:51.140

Und das Zweite, liebe Yasemin, ich bin fast nicht nachgekommen

00:27:51.140 –> 00:27:57.220

bei all diesen Verbindungen, die du aufgezeigt hast, dankenswerterweise,

00:27:57.220 –> 00:28:07.380

die Komplexit├Ąt, die dieses Thema mal wieder ausmacht. Und sei mir nicht b├Âse,

00:28:07.380 –> 00:28:14.620

ich sch├╝tte jetzt noch mal ein Thema mit rein, und zwar, wenn wir ├╝ber Arbeitswelt und Auswirkungen

00:28:14.620 –> 00:28:22.140

auf die Arbeitswelt sprechen, dann reden wir auch meines Erachtens automatisch um die Auswirkung

00:28:22.140 –> 00:28:33.300

der Bildung und Erziehungs- und des Schulsystems. Und wenn wir davon ausgehen, dass auch in Zukunft

00:28:33.300 –> 00:28:43.660

Zukunft die Arbeitswelt in ihrer Dimension, Wirkung und Ausgestaltung eine politische

00:28:43.660 –> 00:28:50.260

Hauptaufgabe darstellt, wie es im Moment ist, nicht umsonst haben wir ein Arbeitsministerium

00:28:50.260 –> 00:29:01.500

und haben ein Bildungsministerium, dann ist das f├╝r mich einmal immer die Forderung,

00:29:01.500 –> 00:29:05.580

diese zwei Teilbereiche in Verbindung zu sehen, will hei├čen,

00:29:05.580 –> 00:29:09.340

ich kann nicht fordern, aufgrund Erkenntnisst├Ąnde aus heutiger

00:29:09.340 –> 00:29:16.340

Sicht werden wir in eine Zukunft mit k├╝nstlicher Intelligenz laufen.

00:29:16.340 –> 00:29:20.060

Ja, mit Konsequenzen f├╝r das Unternehmertum.

00:29:20.060 –> 00:29:24.100

Ja, unter Umst├Ąnden Wahrung vor Monopolisierung der Daten.

00:29:24.100 –> 00:29:29.860

Und dabei aber vergessen, dass wir daf├╝r, f├╝r diese Arbeitswelt,

00:29:29.860 –> 00:29:36.260

die notwendigen aufger├╝steten, im wahrsten Sinne des Wortes, aufger├╝steten Ressourcen brauchen.

00:29:36.260 –> 00:29:43.220

Und das macht das Thema jetzt eigentlich nochmal wirklich zu einem absoluten Monsterthema.

00:29:43.220 –> 00:29:44.460

Vielen Dank f├╝rs Zuh├Âren.

00:29:44.460 –> 00:29:47.740

Ja, absolut. Vielen, vielen lieben Dank, Marc.

00:29:47.740 –> 00:29:53.140

Ja, ich m├Âchte gern noch zwei Punkte erg├Ąnzen und zwar einmal die Auswirkungen auf die Arbeitswelt.

00:29:53.140 –> 00:29:56.940

Wenn man sich fragt, welche Aufgaben ├╝bernehmen Roboter denn jetzt auch?

00:29:56.940 –> 00:30:04.140

Und dann gibt es auch Untersuchungen, dass sehr, sehr viele Arbeiten auch langweilig, schmutzig, gef├Ąhrlich und schwierig sind.

00:30:04.140 –> 00:30:08.140

Das erledigen dann Roboter. Wenn das so ist, dann ist das ja eine tolle Sache.

00:30:08.140 –> 00:30:13.140

Wenn es zu einer Erg├Ąnzung f├╝hrt, dass der Mensch also nicht mehr so schwer heben muss und keine R├╝ckenprobleme hat,

00:30:13.140 –> 00:30:17.140

weil es da Maschinen gibt, die das machen, dann w├Ąre das in dem Fall eine tolle Erg├Ąnzung.

00:30:17.140 –> 00:30:19.740

Und zum Thema Datenschutz, das ist sehr, sehr wichtig.

00:30:19.740 –> 00:30:24.940

Und da wird die Justiz besch├Ąftigen. Da wird es wahrscheinlich in Zukunft auch Spezialisten geben.

00:30:24.940 –> 00:30:28.540

Und es gibt auch viele Unternehmen, zum Beispiel jetzt in der Krebsforschung.

00:30:28.540 –> 00:30:31.020

F├╝r die Krebsforschung braucht man ganz, ganz viele Daten.

00:30:31.020 –> 00:30:35.900

Und durch den Datenschutz kann ein gro├čes Unternehmen in Deutschland seine Krebsforschung

00:30:35.900 –> 00:30:39.220

in Deutschland nicht so gezielt weiterf├╝hren, wie sie sich das w├╝nschen.

00:30:39.220 –> 00:30:44.460

Und verlegt jetzt gro├če Teile der Forschung nach Gro├čbritannien, um da eben weiter im

00:30:44.460 –> 00:30:45.700

Krebsbereich forschen zu k├Ânnen.

00:30:45.700 –> 00:30:49.900

Ja, vielen Dank.

00:30:49.900 –> 00:30:52.820

Und auch das ist ein ganz wichtiger Aspekt.

00:30:52.820 –> 00:30:59.260

Das hei├čt, auch hier, das bedeutet nicht unbedingt, dass das Unternehmen komplett umzieht, sondern

00:30:59.260 –> 00:31:05.060

eben die Hauptsitzverlagerung sozusagen, die dann bestimmte Dinge wie zum Beispiel das

00:31:05.060 –> 00:31:10.580

Dateneinsammeln dann eben in einem Bereich oder in einem Land durchf├╝hrt, wo das eben

00:31:10.580 –> 00:31:12.500

ohne Probleme m├Âglich ist.

00:31:12.500 –> 00:31:14.100

Also auch das sind ja Aspekte.

00:31:14.100 –> 00:31:21.900

Das hei├čt, hier sieht man ja sehr deutlich an diesen konkreten Beispielen auch, der Mensch

00:31:21.900 –> 00:31:27.260

wird erfinderisch. In dem Moment, wo wir k├Ânnen zwar versuchen zu regulieren und zu begrenzen,

00:31:27.260 –> 00:31:32.540

aber in dem Moment, wo wir das tun, gibt es halt immer auch wieder Umwege, die dann auch

00:31:32.540 –> 00:31:38.820

eingeschlagen werden, um sozusagen an der Stelle auch wieder neue M├Âglichkeiten im Sinne des eigenen

00:31:38.820 –> 00:31:44.700

Unternehmens sozusagen und f├╝r das Vorhaben dann auch wieder zu finden. Und dementsprechend stellt

00:31:44.700 –> 00:31:49.140

sich halt die Frage, wie sinnvoll eben auch solche Regulierungen dann an der Stelle dann auch sind

00:31:49.140 –> 00:31:53.980

Und und oder ob wir uns dadurch nicht noch mehr Nachteile sozusagen

00:31:53.980 –> 00:31:58.700

reinholen, die die Problematik in Bezug auf die Entwicklung auch auf

00:31:58.700 –> 00:32:02.740

Arbeitswelt und so weiter heute ja schon abzeichnen lassen mit

00:32:02.740 –> 00:32:06.540

Fachkr├Ąftem├Ąngel und so weiter, dass das nicht umso mehr dadurch

00:32:06.540 –> 00:32:08.540

vielleicht sogar auch verst├Ąrkt wird.

00:32:08.540 –> 00:32:11.660

Damit m├Âchte ich gerne mal Susanne erst mal mit in der Runde

00:32:11.660 –> 00:32:13.660

begr├╝├čen. Einen wundersch├Ânen guten Morgen.

00:32:13.660 –> 00:32:15.660

Was sagst du denn zu dem Thema?

00:32:15.660 –> 00:32:24.460

Ja, einen wundersch├Ânen guten Morgen. Ich wurde getriggert durch Marktausf├╝hrungen in Bezug auf

00:32:24.460 –> 00:32:32.460

Automatisierung in der Arbeitswelt, in Bereichen, wo es halt schwer zu heben ist, wo es schmutzig ist, wo es laut ist und so weiter.

00:32:32.460 –> 00:32:37.740

Und ich muss sagen, da unterst├╝tze ich Automatisierung sehr. Also ich komme aus dem Bereich Arbeitsschutz,

00:32:37.740 –> 00:32:41.260

betreue ja Unternehmen als Fachkraft f├╝r Arbeitssicherheit.

00:32:41.260 –> 00:32:48.060

Da gibt es schon einige Optimierungen, die ich auch unterst├╝tze, um einfach

00:32:48.060 –> 00:32:53.700

auch den Mitarbeiter zu entlasten, um die Gesundheit auch in dem Ma├če zu

00:32:53.700 –> 00:32:59.220

erhalten. Das hei├čt zum Beispiel, wir haben ja nun mal vorhin auch schon

00:32:59.220 –> 00:33:03.580

demografischen Wandel. Ich sehe es immer mehr, dass in den Betrieben der

00:33:03.580 –> 00:33:05.940

Altersdurchschnitt eher nach oben geht als nach unten.

00:33:05.940 –> 00:33:11.660

Nachwuchs fehlt. Gerade im Handwerk oder auch in anderen produzierenden Betrieben

00:33:11.660 –> 00:33:17.180

ist Nachwuchs wirklich ein Riesenthema. Wir haben zum Beispiel einen

00:33:17.180 –> 00:33:23.900

Betrieb, der ist ein Dachdecker bzw. ein Zimmereibetrieb. Wir haben dann

00:33:23.900 –> 00:33:28.420

├╝berlegt, was es denn an M├Âglichkeiten gibt, um den Mitarbeiter davor zu bewahren,

00:33:28.420 –> 00:33:31.980

dass er st├Ąndig hoch muss aufs Dach, also arbeiten in der H├Âhe. Das ist ja auch

00:33:31.980 –> 00:33:38.980

einer der h├Ąufigsten Gr├╝nde f├╝r t├Âdliche Unf├Ąlle, und sind dann mit der

00:33:38.980 –> 00:33:44.220

Technik der Drohne vorangeschritten, dass wir Drohnen einsetzen mit Kameras,

00:33:44.220 –> 00:33:50.460

um dann zu schauen, welche F├Ąlle gibt es auf D├Ąchern. Wo ist da vielleicht ein

00:33:50.460 –> 00:33:55.820

Leck oder irgendetwas, das nicht st├Ąndig hochgekraxelt werden muss. In den

00:33:55.820 –> 00:34:01.420

produzierenden Betrieben sind auch viele andere automatisierte Prozesse anstelle

00:34:01.420 –> 00:34:07.740

von Menschen, einfach aus der Situation heraus, dass die Arbeitspl├Ątze

00:34:07.740 –> 00:34:10.780

ergonomischer gestaltet werden sollen. Gar nicht mal, weil man sagt, na ja, wir

00:34:10.780 –> 00:34:16.740

wollen es jetzt nur im Hinblick auf die Wirtschaftlichkeit, sondern dass auch der

00:34:16.740 –> 00:34:20.980

Mitarbeiter entlastet wird. Weil es muss ja hinter der Maschine immer noch jemand

00:34:20.980 –> 00:34:28.900

sein, der die Maschine bedient, der sie wartet, der sie am Laufen h├Ąlt oder

00:34:28.900 –> 00:34:33.500

f├╝ttert oder was auch immer. Und von daher ist es eine ziemliche

00:34:33.500 –> 00:34:37.460

Gratwanderung. Also ich unterst├╝tze es aus Sicht der Arbeitssicherheit, dass es

00:34:37.460 –> 00:34:42.620

automatisiert wird. Aus Sicht eines Datenschutzbeauftragten gibt es da immer

00:34:42.620 –> 00:34:51.500

wieder Haken, die uns hindern. Die DSGVO ist eigentlich eine massive Bremse, aber

00:34:51.500 –> 00:34:57.260

ihr hattet vorhin dar├╝ber gesprochen, Daten sammeln. Das Problem ist nicht nur

00:34:57.260 –> 00:35:01.760

die Sammlung der Daten, sondern die Auswertung der Daten. Was wollen wir da

00:35:01.760 –> 00:35:05.660

rausziehen und wer soll es denn machen? Ich sehe es ja auch immer wieder, dass

00:35:05.660 –> 00:35:10.340

wir unheimlich viele Daten sammeln in der Arbeitswelt in Bezug auf Pr├Ąvention.

00:35:10.340 –> 00:35:14.060

Das hei├čt also, ich sammle alle m├Âglichen Informationen ├╝ber gef├Ąhrliche

00:35:14.060 –> 00:35:17.860

Situationen, ├╝ber Beinaheunf├Ąlle, ├╝ber Erste-Hilfe-F├Ąlle und so weiter.

00:35:17.860 –> 00:35:21.500

Ich habe da manchmal, je nach Gr├Â├če des Betriebes, da echt wahnsinnig viele

00:35:21.500 –> 00:35:24.620

Meldungen vorliegen und da muss auch erst mal sortiert werden, was ist

00:35:24.620 –> 00:35:29.780

Was ist auch wirklich eine Meldung, die beachtet werden muss?

00:35:29.780 –> 00:35:30.980

Und was machen wir dann damit?

00:35:30.980 –> 00:35:37.460

Also auf der Seite, das kann keine k├╝nstliche Intelligenz meines Erachtens im Moment auswerten,

00:35:37.460 –> 00:35:39.300

weil das einfach viel zu komplex ist.

00:35:39.300 –> 00:35:44.180

Und da haben wir, wie Marc auch schon sagt, ein Auge darauf zu werfen,

00:35:44.180 –> 00:35:48.780

dass wir nicht alles automatisieren, weil der Mensch braucht eine gute Bildung.

00:35:48.780 –> 00:35:53.260

Schulbildung ist ja in Deutschland nicht unbedingt ausgerichtet auf die wirklich

00:35:53.260 –> 00:35:54.220

effektive Arbeitswelt.

00:35:54.220 –> 00:36:02.580

Und von daher, wenn ich das so betrachte, was wir auch im Alltagsleben haben, es sind so viele Baustellen im Moment.

00:36:02.580 –> 00:36:08.100

Also ich aus der Sicht sehe es auch immer ein Riesenproblem, wo wollen wir denn ansetzen?

00:36:08.100 –> 00:36:19.620

Wer soll sich wo der Sache annehmen, damit diese Automatisierung, die Datensammlung, Auswertung und dann halt die Verwertung auch wirklich effektiv in die Arbeitswelt umgesetzt wird?

00:36:19.620 –> 00:36:23.420

Im Moment sehe ich nur, dass wahnsinnig viel auf den Markt geschmissen wird, dass wahnsinnig

00:36:23.420 –> 00:36:24.940

viel probiert wird.

00:36:24.940 –> 00:36:29.180

Aber der Effekt ist meines Erachtens nur sehr, sehr minimal gesehen.

00:36:29.180 –> 00:36:32.660

In dem Bereich, wo ich das jetzt gemacht habe, sehe ich schon einen guten Effekt.

00:36:32.660 –> 00:36:38.580

Auch in der Medizin, was da schon kam, dass querschnittsgel├Ąhmte Menschen wieder sich

00:36:38.580 –> 00:36:41.140

bewegen k├Ânnen oder generell erst mal sich bewegen k├Ânnen.

00:36:41.140 –> 00:36:45.380

Aber ansonsten in der breiten Masse, da sind wir noch weit, weit entfernt und in den Kindern

00:36:45.380 –> 00:36:46.380

schon.

00:36:46.380 –> 00:36:52.580

Naja, also da ist mein erster Impuls, die mal die Frage zu stellen, ob das nicht eher

00:36:52.580 –> 00:36:57.180

in Anf├╝hrungsstrichen ein deutsches Problem ist, was du gerade beschreibst, weil andere

00:36:57.180 –> 00:37:02.700

L├Ąnder schaffen es ja auch und andere Unternehmen schaffen es ja auch, insbesondere im angloamerikanischen

00:37:02.700 –> 00:37:06.980

Raum, nicht nur Daten einzusammeln, sondern auch genau zu wissen, was sie mit den Daten

00:37:06.980 –> 00:37:10.460

machen und wie sie sie auch einsetzen und auch in die Auswertung gehen.

00:37:10.460 –> 00:37:15.740

Das hei├čt ganz offensichtlich, wenn hier Probleme bestehen, dann sind eben entweder

00:37:15.740 –> 00:37:20.140

nicht die richtigen Ressourcen an der Stelle eingestellt, um mit diesen Daten eben auch

00:37:20.140 –> 00:37:25.740

in die Auswertung entsprechend umzugehen, entsprechende Tools daf├╝r zu nutzen und auch

00:37:25.740 –> 00:37:31.740

das dann eben wieder auch in die KI sozusagen einzupflegen, um damit dann auch wieder zu

00:37:31.740 –> 00:37:32.740

arbeiten.

00:37:32.740 –> 00:37:36.100

Aber das sind jetzt ganz klassische Dinge, die du beschrieben hast, die in anderen Unternehmen

00:37:36.100 –> 00:37:38.620

und in anderen L├Ąndern offensichtlich funktionieren.

00:37:38.620 –> 00:37:41.460

Deswegen sind sie uns ja auch meilen voraus.

00:37:41.460 –> 00:37:45.460

Deswegen sagte ich ja auch, die DSGVO ist im Grunde genommen unsere riesige Bremse.

00:37:45.460 –> 00:37:48.940

Also ich sehe das auch so, dass Deutschland dieses Problem hat.

00:37:48.940 –> 00:37:52.420

Ich betreue ja nun mal auch internationale Unternehmen, da l├Ąuft das ganz anders.

00:37:52.420 –> 00:37:58.620

Also ja, deswegen sage ich ja, wir, nicht global gesehen, sondern wir hier in Deutschland

00:37:58.620 –> 00:37:59.620

haben dieses Problem.

00:37:59.620 –> 00:38:01.260

Wir sind absolut in den Kindern schon.

00:38:01.260 –> 00:38:03.500

Wir sind so was von r├╝ckst├Ąndig, was das betrifft, ohnegleichen.

00:38:03.500 –> 00:38:08.060

Ja und das macht eben diese Problematik halt auch nochmal deutlich.

00:38:08.060 –> 00:38:13.060

Also auf der einen Seite gibt es nat├╝rlich die ganz Gro├čen, die schon recht weit voraus sind.

00:38:13.060 –> 00:38:18.560

Und auf der anderen Seite gibt es auch viele Unternehmen, die auch im Ausland vielleicht noch relativ frisch dabei sind.

00:38:18.560 –> 00:38:23.060

Aber hier hinken wir an vielen Stellen, egal wo wir im Vergleich gucken, total hinterher.

00:38:23.060 –> 00:38:30.060

Und je l├Ąnger es tats├Ąchlich braucht, diese Diskussionen auch zu f├╝hren und hier auch in Aktion zu kommen,

00:38:30.060 –> 00:38:35.060

desto gr├Â├čer wird dieses Gap. Und das darf man auch nicht untersch├Ątzen an dieser Stelle.

00:38:35.060 –> 00:38:39.460

Und dann eben nochmal diesen Aspekt, den auch J├╝rgen nochmal mit der Bildung aufgegriffen hat.

00:38:39.460 –> 00:38:43.180

Wir kommen ja immer wieder auf dieses Bildungsthema zu sprechen.

00:38:43.180 –> 00:38:48.820

Ja, also es ist eine es ist eine politische Aufgabe mitunter,

00:38:48.820 –> 00:38:53.740

dieses Bildungssystem sich auch anzuschauen und hier auch aktiv zu werden.

00:38:53.740 –> 00:38:55.980

Das ist es in der Vergangenheit schon gewesen.

00:38:55.980 –> 00:38:59.300

Es wird das jetzt und in Zukunft noch viel mehr werden.

00:38:59.300 –> 00:39:04.380

Und hier passiert einfach auch einfach viel zu wenig, in Anf├╝hrungsstrichen,

00:39:04.380 –> 00:39:07.460

oder viel zu langsam, sagen wir es mal so, aber auch zu wenig,

00:39:07.460 –> 00:39:11.260

weil Digitalisierung hei├čt h├Ąufig auch, das ist die Beobachtung,

00:39:11.260 –> 00:39:14.540

die man machen kann, dass dann irgendwelche iPads bestellt werden,

00:39:14.540 –> 00:39:16.500

die vielleicht sogar noch nicht mal bedient werden k├Ânnen,

00:39:16.500 –> 00:39:18.580

weil kein Internetzugang da ist oder so.

00:39:18.580 –> 00:39:21.140

Also wenn man da mal an die Schulen guckt, das ist wirklich

00:39:21.140 –> 00:39:25.140

ja, da werden einem die Haare grau an der Stelle, weil

00:39:25.140 –> 00:39:29.140

abgesehen davon, dass hier vielleicht auch Lehrer begleitet werden m├╝ssten

00:39:29.140 –> 00:39:32.860

und so weiter und so fort, scheitert es ja schon an rudiment├Ąren Dingen,

00:39:32.860 –> 00:39:37.380

wie das hat man ja sehr stark jetzt auch zu Corona zum Start von Corona gesehen,

00:39:37.380 –> 00:39:41.860

dass es eben an den Schulen teilweise noch nicht mal Internetzugang gibt,

00:39:41.860 –> 00:39:45.820

sodass die Endger├Ąte dann da waren, nachdem sie bestellt wurden,

00:39:45.820 –> 00:39:48.380

aber trotzdem nicht eingesetzt und genutzt werden konnten.

00:39:48.380 –> 00:39:51.060

Also das sind ja ganz spannende Ph├Ąnomene in diesem Zusammenhang.

00:39:51.060 –> 00:39:54.660

Und ich glaube, J├╝rgen, du wolltest noch was anschlie├čen,

00:39:54.660 –> 00:39:55.780

wenn ich das richtig gesehen habe.

00:39:55.780 –> 00:39:58.020

Marc, wenn du dann auch noch was sagen m├Âchtest, gerne.

00:39:58.020 –> 00:40:02.100

Ja, erstmal herzlichen Dank, liebe Susanne, f├╝r deine Ausf├╝hrungen.

00:40:02.100 –> 00:40:06.100

hat mich noch auf einen weiteren Punkt gebracht und bitte seht es mir nah,

00:40:06.100 –> 00:40:10.900

dass ich dieses Zelt jetzt noch weiter aufspanne, und zwar in der Verbindung

00:40:10.900 –> 00:40:16.460

Automatisierung, Arbeits- und Ausbildungswelt. Die Meta-Ebene f├╝r mich, ich sprach das bei

00:40:16.460 –> 00:40:24.580

dem Raum der k├╝nstlichen Intelligenz und unsere zuk├╝nftige Gestaltung all dessen,

00:40:24.580 –> 00:40:29.500

was uns umgibt, schon an, die l├Ąuft f├╝r mich unter der grunds├Ątzlichen Frage,

00:40:29.500 –> 00:40:32.500

Alles, was wir tun, wollen wir das ├╝berhaupt?

00:40:32.500 –> 00:40:37.140

Und eine wesentliche Krux, liebe Susanne, hast du aufgezeigt,

00:40:37.140 –> 00:40:40.820

dieses Wir, das Problem ist im Verbund mit dieser innovativen

00:40:40.820 –> 00:40:46.060

Technologie sicherlich das Thema Wir, weil wir entscheiden,

00:40:46.060 –> 00:40:51.300

wenn wir entscheiden alleine als Deutschland oder auch als EU und

00:40:51.300 –> 00:40:56.980

gegen einen in Anf├╝hrungsstrichen technologischen Mainstream agieren

00:40:56.980 –> 00:41:01.980

durch entsprechende Reglementierungen, dann wollen wir,

00:41:01.980 –> 00:41:06.300

ich provoziere jetzt mal bewusst, dann wollen wir auf einen

00:41:06.300 –> 00:41:11.180

potenziellen Vorteil zuk├╝nftiger Ausgestaltung einer modernen

00:41:11.180 –> 00:41:13.180

Arbeitswelt verzichten.

00:41:13.180 –> 00:41:16.700

Diese Frage ist f├╝r mich urs├Ąchlich.

00:41:16.700 –> 00:41:18.700

Was wollen wir denn ├╝berhaupt?

00:41:18.700 –> 00:41:25.220

Und insofern w├Ąre f├╝r mich diese Kette, diese begriffliche Kette

00:41:25.220 –> 00:41:29.980

die eigentliche Kette der substantiven Automatisierung Arbeitswelt,

00:41:29.980 –> 00:41:34.860

Ausbildungswelt noch zu erg├Ąnzen, im Grunde genommen durch Sinnwelt.

00:41:34.860 –> 00:41:39.460

Was ist eigentlich der Sinn zuk├╝nftig des Lebens, was uns ja

00:41:39.460 –> 00:41:43.780

insbesondere durch die Generationendiskussion in letzter

00:41:43.780 –> 00:41:49.380

Zeit immer wieder vor Augen gef├╝hrt wird, dass es da Bestrebungen gibt,

00:41:49.380 –> 00:41:54.020

auch nicht nur zuletzt, nicht nur in Bezug auf die Arbeit,

00:41:54.020 –> 00:41:59.140

Arbeit, sondern auch auf die Redundanzgr├Â├če einen ganz anderen

00:41:59.140 –> 00:42:04.140

Sinn zu geben, als wir das oder als ich das noch erlebt habe.

00:42:04.140 –> 00:42:06.620

Ich will da nicht f├╝r alle sprechen.

00:42:06.620 –> 00:42:11.460

Wir sind ├Âkonomisch gesehen in den letzten Jahrhunderten, zwei bis drei

00:42:11.460 –> 00:42:16.220

Jahrhunderten ├╝ber die industrielle Revolutionen immer in eine h├Âhere

00:42:16.220 –> 00:42:19.740

Stufe der ├Âkonomischen Nutzenfunktion gekommen.

00:42:19.740 –> 00:42:25.460

Das hei├čt, wir haben eine Erweiterung der Lebenserwartung, wir haben einen h├Âheren

00:42:25.460 –> 00:42:31.620

Gesundheitsstatus, wir haben einen h├Âheren Bildungsstatus. Unser Weg ging immer nach oben

00:42:31.620 –> 00:42:39.020

und unsere Gesellschaft hat sich ver├Ąndert von einer Bedarfsdeckungsgesellschaft in eine

00:42:39.020 –> 00:42:47.540

eher Bedarfserweckungsgesellschaft. Nach dem Motto, ich habe zwar ein iPhone, aber wenn das n├Ąchste

00:42:47.540 –> 00:42:49.540

dann muss ich das auch haben.

00:42:49.540 –> 00:42:52.940

Sorry, ich schweige jetzt wahrscheinlich ab.

00:42:52.940 –> 00:42:58.820

Aber im Grunde genommen noch mal, dieses Riesenthema hat f├╝r mich

00:42:58.820 –> 00:43:03.420

auch immer sinnlegend, den Aspekt zu hinterfragen,

00:43:03.420 –> 00:43:08.060

wohin soll denn eigentlich dieser Weg gehen und will ich das?

00:43:08.060 –> 00:43:10.060

Vielen Dank f├╝rs Zuh├Âren.

00:43:10.060 –> 00:43:13.900

Lass mich da gerne noch mal ganz provokant zur├╝ckfragen.

00:43:13.900 –> 00:43:16.780

Aus meiner Sicht stellt sich vielleicht gar nicht die Frage,

00:43:16.780 –> 00:43:23.580

wollen wir das ├╝berhaupt, sondern haben wir ├╝berhaupt den Luxus, dar├╝ber nachzudenken,

00:43:23.580 –> 00:43:25.100

ob wir das wollen oder nicht wollen?

00:43:25.100 –> 00:43:30.700

Also sind wir hier nicht vielleicht sogar in einem Zugzwang sozusagen und haben gar

00:43:30.700 –> 00:43:31.700

nicht den Luxus?

00:43:31.700 –> 00:43:34.140

Und ich m├Âchte ganz konkret gerne ein Beispiel dazu aufmachen.

00:43:34.140 –> 00:43:38.100

Wir haben es ja gerade in der Elektromobilit├Ąt auch erlebt.

00:43:38.100 –> 00:43:44.140

Ja, da haben sich eben verschiedene deutsche Unternehmen dagegen wirklich verwehrt und

00:43:44.140 –> 00:43:49.420

geweigert und das hat eher dazu gef├╝hrt, dass wir jetzt heute ein Problem dadurch

00:43:49.420 –> 00:43:55.080

bekommen haben und weit zur├╝ckgeworfen sind an der Stelle mit unseren

00:43:55.080 –> 00:44:01.220

Entwicklungen, w├Ąhrend andere L├Ąnder uns zigmal ├╝berholt haben, was die Entwicklungen

00:44:01.220 –> 00:44:05.860

in der Elektromobilit├Ąt beispielsweise anbetrifft. Und wir sprechen ja heute

00:44:05.860 –> 00:44:09.160

nicht ├╝ber Elektromobilit├Ąt. Ich wollte es jetzt nur mal als Beispiel reinbringen.

00:44:09.160 –> 00:44:13.680

Aber ich sehe durchaus die Gefahr, dass wenn wir hier eben auf dem gleichen Pferd

00:44:13.780 –> 00:44:17.780

sozusagen uns die Frage zu stellen, wollen wir das ├╝berhaupt?

00:44:17.780 –> 00:44:21.780

Damit wir uns die Frage stellen k├Ânnen, wollen wir das ├╝berhaupt,

00:44:21.780 –> 00:44:25.780

m├╝ssten alle L├Ąnder global gesehen an einem Strang ziehen.

00:44:25.780 –> 00:44:29.780

Und das tun sie aber nicht. Und in dem Moment, wo sie das nicht tun,

00:44:29.780 –> 00:44:33.780

also das w├Ąre die Voraussetzung aus meiner Sicht, um sich so eine Frage stellen zu k├Ânnen,

00:44:33.780 –> 00:44:37.780

wenn sie das nicht tun, dann stellt sich mir die Frage,

00:44:37.780 –> 00:44:41.780

ist das nicht ein Luxus, was wir hier diskutieren? Und diese Frage

00:44:41.780 –> 00:44:44.420

d├╝rften wir uns an der Stelle so gar nicht erlauben.

00:44:44.420 –> 00:44:46.420

J├╝rgen?

00:44:46.420 –> 00:44:49.940

Ja, ich merke, vielleicht ist auch ein versteckter

00:44:49.940 –> 00:44:54.340

Wink mit dem Zaunpaar, liebe Yasemin, dass ich zu lange geredet habe.

00:44:54.340 –> 00:44:56.340

N├Ąmlich das war

00:44:56.340 –> 00:45:02.300

mein Hintergrund zu dieser exponierten Aussage, dieses Wir,

00:45:02.300 –> 00:45:10.020

was Susanne ja auch angef├╝hrt hat, dieser Punkt, dass wir uns nur

00:45:10.020 –> 00:45:14.020

Und wir k├Ânnen uns nat├╝rlich ausklinken, liebe Yasemin.

00:45:14.020 –> 00:45:18.020

Nat├╝rlich k├Ânnen wir sagen, wir deindustrialisieren,

00:45:18.020 –> 00:45:23.020

was ja derzeit einige politische Str├Âmungen so vehement vorantreiben.

00:45:23.020 –> 00:45:26.020

Nur, man muss mit den Konsequenzen leben.

00:45:26.020 –> 00:45:28.020

Man kann alles tun.

00:45:28.020 –> 00:45:31.020

Man muss nur immer mit den Konsequenzen tun.

00:45:31.020 –> 00:45:36.020

Und das ist f├╝r mich das Ergebnis des kognitiven Prozesses.

00:45:36.020 –> 00:45:37.020

Was will ich denn?

00:45:37.020 –> 00:45:42.020

Denn, n├Ąmlich eine Entscheidung zu treffen, nachdem ich abgewogen

00:45:42.020 –> 00:45:47.020

habe, welche Konsequenzen diese Entscheidung f├╝r sich mittr├Ągt.

00:45:47.020 –> 00:45:51.020

Und vollkommen richtig, ich bringe das auf den Punkt,

00:45:51.020 –> 00:45:55.020

hoffentlich, es gibt einen treffenden Spruch daf├╝r,

00:45:55.020 –> 00:46:00.020

das K├Ânnen ist des D├╝rfens Ma├č. Und das D├╝rfen ist in dem Umfeld

00:46:00.020 –> 00:46:05.020

eben unser Status, nicht nur ├Âkonomisch, sondern auch politisch

00:46:05.020 –> 00:46:11.140

politisch und gesellschaftlich, dass wir mittlerweile nicht mehr als einzelnes Land agieren k├Ânnen,

00:46:11.140 –> 00:46:17.380

sondern darauf angewiesen sind, auch und in zunehmendem Ma├če ├╝ber den Tellerrand zu schauen

00:46:17.380 –> 00:46:21.540

und zu schauen, was passiert da eigentlich um uns herum.

00:46:21.540 –> 00:46:28.060

Ja, absolut. Da bin ich absolut bei dir. Und wenn man dann tats├Ąchlich sagen w├╝rde,

00:46:28.060 –> 00:46:32.540

wir sind bereit, diesen Preis daf├╝r zu zahlen in der Konsequenz, dann w├╝rden sich ja nat├╝rlich

00:46:32.540 –> 00:46:36.460

ganz viele Dinge ableiten, so was wie, wie m├╝ssten eben unsere Menschen

00:46:36.460 –> 00:46:41.860

ausgebildet sein im Land, wof├╝r m├╝ssten wir Sorge tragen, auch Bildungskontext ist

00:46:41.860 –> 00:46:47.660

hier ein relevanter Aspekt und so weiter. Dann d├╝rfen wir unabh├Ąngig davon, ob wir

00:46:47.660 –> 00:46:52.540

das wollen oder nicht wollen, durch die Ver├Ąnderungen, die jetzt stattfinden,

00:46:52.540 –> 00:46:58.180

wird ja eins mal ganz massiv deutlich, dass es eben nicht nur um Erstausbildungen

00:46:58.180 –> 00:47:03.580

oder ├Ąhnliches geht, sondern es wird zunehmend auch in Richtung, gerade wenn wir auf die Arbeitswelt

00:47:03.580 –> 00:47:07.980

schauen, auch so was wie Umschulungen gehen. Also wie m├╝ssen denn jetzt hier auch Menschen

00:47:07.980 –> 00:47:15.020

beispielsweise begleitet werden, um eben zukunftstr├Ąchtige Skills, ├╝bergeordnete Skills

00:47:15.020 –> 00:47:21.700

auch erwerben und erlernen zu k├Ânnen und dass es eben nicht mehr die klassische Erstausbildung ist,

00:47:21.700 –> 00:47:26.060

die hier ausreicht, sondern hier diese Ver├Ąnderungen auch in Unternehmen gleichzeitig

00:47:26.060 –> 00:47:30.980

auch zu begleiten, in welchem Ausma├če dann die Auspr├Ągung ist, entscheidet sich ja dann

00:47:30.980 –> 00:47:35.980

damit einhergehend auch, wof├╝r sich zum Beispiel ein Deutschland auch entscheidet an der Stelle.

00:47:35.980 –> 00:47:37.540

Marc, du wolltest auch nochmal anschlie├čen.

00:47:37.540 –> 00:47:41.940

Ja unbedingt. Und zwar m├Âchte ich nochmal ankn├╝pfen an „Wollen wir das?“ Da geben sich

00:47:41.940 –> 00:47:47.380

so viele Fragen. Wollen wir das? Wer entscheidet das? Was sind die Konsequenzen? Und was k├Ânnten

00:47:47.380 –> 00:47:52.140

die Alternativen sein? Und dann eine Frage, wie finanzieren wir das? Und ich denke, dass

00:47:52.140 –> 00:47:55.900

kein Mensch von uns im Raum b├Âse w├Ąre, wenn man sagt, du musst jetzt weniger arbeiten,

00:47:55.900 –> 00:47:59.260

hast also viel viel mehr Freizeit, du musst dir aber keine Sorgen machen, dass

00:47:59.260 –> 00:48:02.140

dein Leben und unser Wohlstand trotzdem gesichert ist. Und ich bin jetzt

00:48:02.140 –> 00:48:05.140

bestimmt kein Anh├Ąnger von Kommunismus, aber trotzdem, das sind auch

00:48:05.140 –> 00:48:07.940

philosophische Fragen, wenn ein Unternehmen zum Beispiel durch

00:48:07.940 –> 00:48:12.580

Automatisierung seinen Gewinn verzehnfacht und die M├Âglichkeit h├Ątte,

00:48:12.580 –> 00:48:16.580

dann auch zehnmal so viele Mitarbeiter zu entlassen, wie es braucht, dann muss man

00:48:16.580 –> 00:48:19.980

einfach auch juristisch dar├╝ber nachdenken und sprechen d├╝rfen, hat der

00:48:19.980 –> 00:48:24.220

Unternehmer dann auch die Verantwortung, dass das Geld, was da verdient wird, in die

00:48:24.220 –> 00:48:28.140

Gesellschaft zur├╝ckflie├čt, ja oder nein? Wenn man den Unternehmer fragt und mich

00:48:28.140 –> 00:48:30.780

fragen w├╝rde, sage ich nat├╝rlich nein. Warum soll ich Gewinne, die ich

00:48:30.780 –> 00:48:34.300

erwirtschafte, zur├╝ckflie├čen lassen? Das ist dann aber wiederum

00:48:34.300 –> 00:48:38.020

Aufgabe der Politik und da sieht man, wie komplex das ganze Thema ist. Aber

00:48:38.020 –> 00:48:41.100

grunds├Ątzlich muss uns bewusst werden und das hast du, glaube ich, hast mir auch

00:48:41.100 –> 00:48:44.740

angesprochen, wollen wir das? Haben wir ├╝berhaupt den Luxus dar├╝ber mit zu

00:48:44.740 –> 00:48:48.340

entscheiden? Und wenn wir sagen, wir wollen das nicht, muss ich auch hier mal

00:48:48.340 –> 00:48:51.380

hinstellen und sagen, okay lieber J├╝rgen, wir wollen das nicht, wir wollen keinen

00:48:51.380 –> 00:48:54.920

Roboter. Wir verlieren unseren Wohlstand, wir verlieren den Anschluss an die

00:48:54.920 –> 00:48:58.580

Weltwirtschaft. Das bedeutet dann aber auch, dass du kein Geld mehr hast f├╝r Strom und

00:48:58.580 –> 00:49:01.900

wenn der Sinn deines Lebens ist, drau├čen zu sitzen und auf B├Ąume zu gucken und dem

00:49:01.900 –> 00:49:05.060

Wasser zuzuh├Âren, dann machst du das, aber dann frierst du halt und hast halt kein

00:49:05.060 –> 00:49:08.620

Haus mehr und schl├Ąfst in einem Zelt. Du hast dann sehr sinnvolles Leben, aber

00:49:08.620 –> 00:49:12.580

eben kein Luxus- und Wohlstandsleben mehr. Und das sind halt ganz, ganz, ja,

00:49:12.580 –> 00:49:17.180

Diskussionen, die wir uns da stellen m├╝ssen und vor allen Dingen, die d├╝rfen

00:49:17.180 –> 00:49:20.380

Unternehmer nicht alleine entscheiden, sondern da ist die ganze Gesellschaft

00:49:20.380 –> 00:49:24.460

gefragt, die damit eingreift und auch aufpasst, dass es nicht nur auf der Welt

00:49:24.460 –> 00:49:28.380

wei├č ich nicht 100 oder 200 reiche Menschen gibt und der Rest nur noch arm ist.

00:49:28.380 –> 00:49:34.900

Ja absolut und viele dieser Systeme von denen wir sprechen und das wird auch in

00:49:34.900 –> 00:49:40.580

den n├Ąchsten Tagen noch mal st├Ąrker deutlich werden, die funktionieren eben

00:49:40.580 –> 00:49:44.260

auch mit zum Beispiel so Zentralisierungsgedanken und so weiter.

00:49:44.260 –> 00:49:47.300

Also da werden wir auch noch alles mit aufgreifen in den n├Ąchsten Tagen und

00:49:47.300 –> 00:49:51.800

Wochen. Und dann w├Ąre nat├╝rlich auch eine folgerichtige ├ťberlegung, ob wir

00:49:51.800 –> 00:49:56.180

nicht wieder viel st├Ąrker eben auch in diese Dezentralisierung reingehen m├╝ssen,

00:49:56.180 –> 00:50:02.000

also weg von dieser Globalisierung hin zur dezentralen und dann auch eben

00:50:02.000 –> 00:50:07.560

innerhalb von Deutschland beispielsweise oder innerhalb von Europa, also die

00:50:07.560 –> 00:50:12.320

verschiedene Dinge wieder zur├╝ckzuholen, die wir vorher ausgelagert haben. Also

00:50:12.320 –> 00:50:16.360

all das sind ja Themen tats├Ąchlich, die jetzt hier auch eine

00:50:16.360 –> 00:50:21.440

Relevanz haben, bis hin zu, wenn man eben jetzt gerade auch so Entwicklungen mitbekommt,

00:50:21.440 –> 00:50:31.760

dass ein Unternehmen zum Beispiel hier ├╝berlegt, das Unternehmen nach au├čen zu verkaufen, also

00:50:31.760 –> 00:50:38.200

nicht verlagern, sondern zu verkaufen und damit dann zum Beispiel die Qualit├Ąten, die hier in

00:50:38.200 –> 00:50:43.720

Deutschland, also gerade in Bereichen, wo wir heute noch weit vorne sind, dadurch eben auch

00:50:43.720 –> 00:50:47.080

wieder zur├╝ckfallen w├╝rden. Da gibt es auch viele Vergleiche in den letzten

00:50:47.080 –> 00:50:51.200

Jahren, wo wir als Deutschland sozusagen in bestimmten Bereichen als Vorreiter

00:50:51.200 –> 00:50:56.400

unterwegs waren, einfach weil wir ├╝ber dieses Know-how verf├╝gt haben und durch

00:50:56.400 –> 00:51:00.240

dann den Verkauf von Unternehmen oder ├ťbernahmen von Unternehmen aus dem

00:51:00.240 –> 00:51:04.480

Ausland das dazu beigetragen hat letztendlich, dass dieses Know-how eben

00:51:04.480 –> 00:51:07.200

auch nicht mehr bei uns liegt und dementsprechend wir es wieder f├╝r teuer

00:51:07.200 –> 00:51:12.200

von au├čen einkaufen, was auch wieder eine Kettenreaktion ausl├Âst. Das ist das

00:51:12.200 –> 00:51:15.160

Das eine und das andere, was wir letztens schon mal angesprochen hatten, auch das ist

00:51:15.160 –> 00:51:22.680

ja hier in dem Zusammenhang wieder relevant, ist dieser Aspekt, dass wir, jetzt habe ich

00:51:22.680 –> 00:51:26.120

den Faden verloren, wurscht, wie auch immer, ihr wollt vielleicht auch noch was anschlie├čen

00:51:26.120 –> 00:51:30.760

und dann haben wir ja schon gleich Zeit, vielleicht f├Ąllt es mir ein, wieder bis zur Abschlussrunde.

00:51:30.760 –> 00:51:34.680

Mark, J├╝rgen, Susanne, wenn ihr noch gerne was anschlie├čen wollt, gerne.

00:51:34.680 –> 00:51:36.400

Mark, habe ich gesehen, ja.

00:51:36.400 –> 00:51:40.080

Und dann k├Ânnen wir auch langsam schon in die Abschlussrunde f├╝r heute ├╝bergehen, weil

00:51:40.080 –> 00:51:44.040

gesehen, wir haben nur noch acht Minuten. Die Zeit, die verfliegt Wahnsinn, ist das,

00:51:44.040 –> 00:51:46.720

wie schnell das geht bei diesen hochkomplexen Themen. Marc?

00:51:46.720 –> 00:51:52.800

Ja, mein Abschlusswort w├Ąre dann auch, ich verlasse diesen Raum, wie so oft, mit mehr

00:51:52.800 –> 00:51:57.640

Fragen als Antworten, bin aber zuversichtlich und solange wir in den Diskurs gehen, stelle

00:51:57.640 –> 00:52:01.600

ich immer wieder fest, dass es pl├Âtzlich immer wieder sich neue T├╝ren ├Âffnen. Danke

00:52:01.600 –> 00:52:06.400

f├╝r den Raum heute und ich w├╝nsche euch allen einen ganz tollen Start in den Montag

00:52:06.400 –> 00:52:07.400

und die Woche.

00:52:07.400 –> 00:52:11.400

Okay, das war dann gleichzeitig auch dein Abschlusswort sozusagen.

00:52:11.400 –> 00:52:13.400

Dann k├Ânnen wir ja in der Reihenfolge vielleicht auch weitermachen.

00:52:13.400 –> 00:52:18.400

J├╝rgen und Susanne, was waren denn so die Sachen, die ihr vielleicht nochmal highlighten wollt?

00:52:18.400 –> 00:52:21.400

Oder welche Fragezeichen sind bei euch aufgekommen?

00:52:21.400 –> 00:52:24.400

Was nehmt ihr mit aus dem Raum heute, J├╝rgen und Susanne?

00:52:24.400 –> 00:52:31.400

Ja, f├╝r mich wie immer meinen herzlichen Dank f├╝r alle Beitr├Ąge, die geleistet wurden,

00:52:31.400 –> 00:52:34.400

f├╝r deine Moderation, das muss immer sein.

00:52:34.400 –> 00:52:37.840

Und das mache ich auch gerne.

00:52:37.840 –> 00:52:45.360

Und es hat mal wieder gezeigt, dass auch f├╝r diesen Raum,

00:52:45.360 –> 00:52:49.280

f├╝r diese Themen, die du aufmachst, liebe Yasemin, dankenswerterweise,

00:52:49.280 –> 00:52:53.280

ein ganz wesentliches Problem immer die Komplexit├Ąt ist.

00:52:53.280 –> 00:52:57.160

Und ich nehme auch hier wiederum mit aus einem Teilbereich,

00:52:57.160 –> 00:53:04.360

in dem ich mich eigentlich ├╝ber Jahre hinweg aufgehalten habe,

00:53:04.360 –> 00:53:07.480

dass ich neue Impulse mitnehme.

00:53:07.480 –> 00:53:13.400

Daf├╝r danke ich euch und ich freue mich auf die n├Ąchsten

00:53:13.400 –> 00:53:19.600

auf die n├Ąchsten Stages, die wir haben werden und hoffe

00:53:19.600 –> 00:53:25.040

und davon gehe ich aus, dass du, Yasemin, die F├Ąden dieses

00:53:25.040 –> 00:53:31.840

Gesamtsinn Zusammenhangs auch immer so wohlfeil in der Zukunft f├╝hren wirst,

00:53:31.840 –> 00:53:36.000

weil das ist wirklich eine Herausforderung. Vielen Dank.

00:53:36.000 –> 00:53:40.800

Ja, vielen, vielen lieben Dank und ich f├╝rchte, die Komplexit├Ąt wird auch nicht abnehmen,

00:53:40.800 –> 00:53:44.520

sondern tendenziell eher zunehmen, weil wir ja dann auch mit den unterschiedlichen

00:53:44.520 –> 00:53:50.000

Tagesraumthemen sozusagen dann auch noch weitere Baustellen, so nenne ich es jetzt,

00:53:50.000 –> 00:53:55.000

einfach mal aufmachen. Das hei├čt, wir gucken uns zum Beispiel morgen ja dann die Blockchain-Technologie

00:53:55.000 –> 00:54:01.480

an. Das ist dann wieder eine weitere Technologie und das ist das Spannende, sich das Ganze

00:54:01.480 –> 00:54:06.120

in diesem Zusammenspiel auch anzuschauen. Und dann bin ich sehr, sehr gespannt, welche

00:54:06.120 –> 00:54:12.040

Diskussionen am Ende, welche Erkenntnisse und auch unter dem Gesichtspunkt, naja, wir

00:54:12.040 –> 00:54:16.080

k├Ânnen es nat├╝rlich auf gesellschaftlicher Ebene diskutieren und so weiter. Die Frage

00:54:16.080 –> 00:54:21.800

ist ja aber auch, worauf habe ich denn pers├Ânlich ├╝berhaupt einen Einfluss und in welchem Bereich

00:54:21.800 –> 00:54:25.240

Bewege ich mich denn dann? Und das wird auch noch mal eine spannende Fragestellung, mit

00:54:25.240 –> 00:54:28.840

der wir uns dann besch├Ąftigen werden. Und insofern bin ich sehr, sehr gespannt, wo wir

00:54:28.840 –> 00:54:40.840

dann am Ende bei rauskommen sozusagen. Susanne? Bist du noch bei uns, Susanne? Wir h├Âren

00:54:40.840 –> 00:54:43.720

dich noch nicht. Dein Mikro ist aus, falls du uns h├Âren kannst.

00:54:43.720 –> 00:54:47.640

Ja, sorry, ich habe gerade jemanden in meinem B├╝ro stehen, der was von mir m├Âchte. Ich

00:54:47.640 –> 00:54:50.200

kann jetzt gerade leider nicht antworten.

00:54:50.200 –> 00:54:53.760

Alles klar, ja dann wei├č ich Bescheid. Vielen, vielen lieben Dank.

00:54:53.760 –> 00:54:58.200

Ja, dann lasst uns gerne damit f├╝r heute den Raum abrunden. Ich fand es total

00:54:58.200 –> 00:55:03.920

spannend und morgen, wie gesagt, geht es weiter mit der Blockchain-Technologie. Da

00:55:03.920 –> 00:55:06.320

wollen wir uns dann anschauen, was verbirgt sich denn hinter der

00:55:06.320 –> 00:55:10.960

Blockchain-Technologie und was sind ihre Anwendungsfelder, sowohl in der

00:55:10.960 –> 00:55:14.880

Vergangenheit heute und auch in der Zukunft sozusagen. Also wohin entwickelt

00:55:14.880 –> 00:55:19.240

sich das Ganze und damit haben wir einen weiteren Bereich der Technologie,

00:55:19.240 –> 00:55:24.520

sozusagen, wo es auch massive Entwicklungen gibt und werden jetzt aber

00:55:24.520 –> 00:55:29.240

morgen nicht von der W├Ąhrungsperspektive drauf schauen, sondern wirklich die

00:55:29.240 –> 00:55:34.800

reine Blockchain-Technologie und dar├╝ber sprechen und irgendwann anders haben wir

00:55:34.800 –> 00:55:39.040

auch noch mal einen Raum, wo es dann auch um digitale W├Ąhrungen geht. Also das

00:55:39.040 –> 00:55:42.840

vielleicht noch mal so am Rande schon mal erw├Ąhnt und ich bin total gespannt,

00:55:42.840 –> 00:55:46.920

welche Beispiele ihr morgen dann vielleicht auch mitbringt, mit reinbringt.

00:55:46.920 –> 00:55:50.960

vielleicht kennt ihr ja auch das eine oder andere und dann k├Ânnen wir auch

00:55:50.960 –> 00:55:54.900

wieder verschiedene Aspekte hier wieder aufmachen und auch hier gibt es mit

00:55:54.900 –> 00:55:59.320

Sicherheit ganz viele Themen auch wie Umweltkontexte und so weiter mit

00:55:59.320 –> 00:56:02.920

Klimakontext und so weiter mit zu ber├╝cksichtigen. Also von daher bleiben

00:56:02.920 –> 00:56:07.260

die Diskussionen an der Stelle mit Sicherheit auch spannend und ich bin

00:56:07.260 –> 00:56:11.000

gespannt, welche Erkenntnisse wir dann oder welche Fragezeichen zun├Ąchst wir

00:56:11.000 –> 00:56:13.920

erstmal aus dem Raum morgen mitnehmen werden. In diesem Sinne vielen lieben

00:56:13.920 –> 00:56:18.920

Vielen Dank f├╝rs Mitmachen und hoffentlich bis morgen fr├╝h um 8 wieder hier im Deep Talk.

00:56:18.920 –> 00:56:20.160

Bis dahin. Ciao.

3 Mythen entlarvt - Wenn die Wissenschaft Wissen schafft! | Dr. Yasemin Yazan

Wenn Wissenschaft Wissen schafft!

Leider gibt es auf dem Markt sehr viel Halbwissen. Sei es, weil z. B. Forschungsergebnisse falsch interpretiert oder falsche Kausalit├Ąten hergestellt werden oder ├ťbertragungen in andere Kontexte stattfinden, die gar nicht Untersuchungsgegenstand waren.

Wir greifen 3 Mythen auf und zeigen, was die Wissenschaft schon l├Ąngst wei├č:

- Warum die Bed├╝rfnispyramide von Maslow keine zuverl├Ąssige Grundlage f├╝r Motivation ist

- Warum Pers├Ânlichkeitstests als Fundament f├╝r Personalentscheidungen fragw├╝rdig sind

- Warum es eine Quote als wirksames Mittel gegen Unconscious Bias braucht

Datenschutz

Einverst├Ąndniserkl├Ąrung

Herzlichen Gl├╝ckwunsch - Dein Download erwartet dich in deinem Mail-Postfach!