Select Page

Gehirnfutter f├╝r Pioniergeister: Was steckt hinter Robotik und Automatisierung  & wie wirken sie sich auf die Arbeitswelt aus? Das ist die Fragestellung mit der wir uns in Raum #858 des Deep Talk Clubs unter dem Dachthema “Pioniergeist mit Hirn” befassen. H├Âre selbst, welche Beispiele aufgegriffen wurden und welche Perspektiven im Dialog entstanden sind…

Transkription: ­čçę­č笭čçĘ­čçş­č玭čç╣ #858 Robotik, Automatisierung & Arbeitswelt | Von Dr. Yasemin Yazan

00:00:00.000 –> 00:00:03.200

Einen wundersch├Ânen guten Morgen w├╝nsche ich.

00:00:03.200 –> 00:00:09.920

Ja, heute machen wir weiter mit dem Thema Robotik, Automatisierung und Arbeitswelt.

00:00:09.920 –> 00:00:13.920

Und darunter wollen wir uns mal anschauen, was steckt denn eigentlich hinter

00:00:13.920 –> 00:00:17.280

den Begriffen Robotik und Automatisierung?

00:00:17.280 –> 00:00:21.000

Und wie wirkt sich das Ganze auf die Arbeitswelt aus?

00:00:21.000 –> 00:00:25.320

Und ja, dazu bin ich sehr gespannt,

00:00:25.320 –> 00:00:29.440

welche Impulse ihr dann auch mit reinbringt oder Beispiele.

00:00:29.840 –> 00:00:35.420

Ich habe auch noch mal ein bisschen was vorbereitet und mitgebracht und steige damit gerne ein

00:00:35.420 –> 00:00:39.060

und dann k├Ânnen wir ja gucken, welche Gedanken dadurch auch entstehen.

00:00:39.060 –> 00:00:45.200

Zum einen habe ich mal nachgesehen auf Wikipedia, was steht denn eigentlich unter dem Begriff

00:00:45.200 –> 00:00:47.520

Robotik, was versteht man darunter?

00:00:47.520 –> 00:00:53.260

Und da steht, ich zitiere, “Das Themengebiet der Robotik, auch Robotertechnik, befasst

00:00:53.260 –> 00:01:01.620

sich mit dem Versuch, das Konzept der Interaktion mit der physischen Welt auf Prinzipien der

00:01:01.620 –> 00:01:08.320

Informationstechnik sowie auf eine technisch machbare Kinetik zu reduzieren. Der Begriff

00:01:08.320 –> 00:01:15.940

des Roboters beschreibt dabei eine Entit├Ąt, welche diese beiden Konzepte in sich vereint,

00:01:15.940 –> 00:01:23.240

indem sie die Interaktion mit der physischen Welt auf Basis von Sensoren, Aktoren und

00:01:23.240 –> 00:01:26.840

Informationsverarbeitung umsetzt. Kernbereich der Robotik ist die

00:01:26.840 –> 00:01:31.200

Entwicklung und Steuerung solcher Roboter. Sie umfasst Teilgebiete der

00:01:31.200 –> 00:01:37.360

Informatik, insbesondere von k├╝nstlicher Intelligenz, der Elektrotechnik und das

00:01:37.360 –> 00:01:43.400

Maschinenbaus. Ziel der Robotik ist es, durch Programmierung ein gesteuertes

00:01:43.400 –> 00:01:47.920

Zusammenarbeiten von Roboter, Elektronik und Robotermechanik herzustellen. Das war

00:01:47.920 –> 00:01:51.760

jetzt mal so die Definition von Wikipedia. Und wenn wir jetzt auf den

00:01:51.760 –> 00:01:56.800

Begriff der Automatisierung noch mal schauen. Da habe ich gefunden, wird im

00:01:56.800 –> 00:01:59.680

Kontext von standardisierten Prozessen eingesetzt und f├╝hrt zur

00:01:59.680 –> 00:02:03.600

Effizienzsteigerung dadurch, dass mithilfe von verschiedenen Technologien

00:02:03.600 –> 00:02:09.400

der Benutzereingriff bis auf ein Minimum reduziert wird. Und was das Besondere

00:02:09.400 –> 00:02:13.640

jetzt daran ist, wenn wir eben diese verschiedenen Technologien zusammen

00:02:13.640 –> 00:02:18.600

f├╝hren, darunter f├Ąllt dann sowas wie zum Beispiel k├╝nstliche Intelligenz,

00:02:18.600 –> 00:02:26.600

Automatisierungstechnologie, darunter zu verstehen kognitive Automatisierung, maschinelles Lernen,

00:02:26.600 –> 00:02:33.640

Gesch├Ąftsprozessautomatisierung und Robotic Automation, Prozessautomation, abgek├╝rzt

00:02:33.640 –> 00:02:34.640

RPA.

00:02:34.640 –> 00:02:40.880

Und im Ergebnis sprechen wir dann, wenn wir diese Kombination betrachten, sozusagen von

00:02:40.880 –> 00:02:46.800

Intelligent Automation, auch abgek├╝rzt IA, also I-A im Deutschen.

00:02:46.800 –> 00:02:51.640

Und das erm├Âglicht, dass wir als Benutzer dieser Systeme nicht mehr ├╝ber den Prozess

00:02:51.640 –> 00:02:56.320

nachdenken brauchen, sondern ├╝ber Ergebnisse bzw. Ziele.

00:02:56.320 –> 00:03:02.200

Auch die Verkn├╝pfung von Schnittstellen werden dem User in Zukunft keine Kopfschmerzen mehr

00:03:02.200 –> 00:03:03.200

bereiten.

00:03:03.200 –> 00:03:07.360

Heute ist es ja so, dass wir teilweise eben auch dar├╝ber nachdenken d├╝rfen, wie harmonieren

00:03:07.360 –> 00:03:13.200

denn diese ganzen Systeme, die wir da einsetzen, miteinander, wie kann man die eben auch verkn├╝pfen,

00:03:13.200 –> 00:03:14.200

funktioniert das?

00:03:14.200 –> 00:03:20.120

Manchmal gibt es Herausforderungen und diese Kombination der Technologien wird dann eben

00:03:20.120 –> 00:03:27.400

entsprechend auch m├Âglich machen, dass wir zunehmend per quasi Mausklick sozusagen Systeme

00:03:27.400 –> 00:03:32.280

miteinander in Zukunft auch verbinden, ohne gro├čartig noch irgendwie was machen zu m├╝ssen.

00:03:32.280 –> 00:03:36.560

Das ist teilweise heute auch schon m├Âglich und wird zunehmend immer mehr.

00:03:36.560 –> 00:03:42.240

Das hei├čt, wir sprechen in diesem Zusammenhang zum Beispiel von einer Intelligenz, die optimierungsbed├╝rftige

00:03:42.240 –> 00:03:43.320

Prozesse entdeckt.

00:03:43.320 –> 00:03:46.080

Also selbst aktiv agiert.

00:03:46.080 –> 00:03:51.600

Wir sprechen gleichzeitig von einer Intelligenz, die lernt und damit auch adaptiv ist.

00:03:51.600 –> 00:03:56.600

Und wir sprechen zum Beispiel auch von einer Intelligenz, die Probleme beseitigt, bevor

00:03:56.600 –> 00:03:57.600

sie auftreten.

00:03:57.600 –> 00:04:03.640

Also pr├Ądikativ arbeitet und Probleme anhand von Wahrscheinlichkeiten vorhersagt, bevor

00:04:03.640 –> 00:04:05.200

sie ├╝berhaupt eintreten.

00:04:05.200 –> 00:04:08.400

Ja, soweit vielleicht erstmal so zum Einstieg.

00:04:08.400 –> 00:04:10.840

Und da bin ich mal gespannt, was ihr dazu sagt.

00:04:10.840 –> 00:04:13.880

Vielleicht gibt es auch den einen oder anderen, der sich in den Bereichen gut auskennt und

00:04:13.880 –> 00:04:17.160

vielleicht auch ein paar Impulse nochmal mit reinbringen kann, vielleicht auch konkrete

00:04:17.160 –> 00:04:22.200

Beispiele, sodass wir einfach mal schauen k├Ânnen, was eben auch zusammen und gemeinsam

00:04:22.200 –> 00:04:23.880

daraus eben auch entstehen kann.

00:04:23.880 –> 00:04:28.840

Und in diesem Sinne seid ihr wie jeden Morgen auch heute Morgen wieder herzlich dazu eingeladen,

00:04:28.840 –> 00:04:29.840

mit dazu zu kommen.

00:04:29.840 –> 00:04:34.040

F├╝r die, die heute zum ersten Mal mit dabei sind, nochmal kurz der Hinweis, dass wir den

00:04:34.040 –> 00:04:37.320

Raum aufzeichnen und dass das Ganze nachher auch ver├Âffentlicht wird.

00:04:37.320 –> 00:04:40.960

Das hei├čt, wer mit dazu kommt, ist automatisch damit einverstanden.

00:04:40.960 –> 00:04:44.960

Und dann haben wir drei kleine Raumregeln.

00:04:44.960 –> 00:04:50.000

Erstens ein Profilfoto, auf dem ihr klar zu erkennen seid von Nachnamen und mindestens

00:04:50.000 –> 00:04:55.480

Einsatz in der Bio, einfach um sicherzustellen, dass es sich um ernsthafte Beitr├Ąge und keine

00:04:55.480 –> 00:04:56.800

Klapphaustrolle handelt.

00:04:56.800 –> 00:05:01.400

Wer das aus irgendwelchen Gr├╝nden nicht m├Âchte, anonym bleiben will oder ├Ąhnliches, hat nat├╝rlich

00:05:01.400 –> 00:05:05.320

auch gerne die M├Âglichkeit, einfach den Chat an der Stelle zu nutzen.

00:05:05.320 –> 00:05:13.000

Ja, und ich m├Âchte gerne dann auch bei der Gelegenheit durchaus noch mal etwas aufgreifen,

00:05:13.000 –> 00:05:18.080

was dann gestern auch im Chat noch mal mit dabei war. Wir haben ja gestern schon, nee,

00:05:18.080 –> 00:05:25.040

vorgestern war das, glaube ich, vorgestern haben wir dar├╝ber gesprochen, ├╝ber auch KI und

00:05:25.040 –> 00:05:29.840

Entwicklungen und Auswirkungen auf dem Arbeitsmarkt. Und da kam dann gegen Ende,

00:05:29.840 –> 00:05:32.960

das war allerdings schon zu sp├Ąt, um das aufzugreifen, ich habe es dann zu sp├Ąt erst

00:05:32.960 –> 00:05:38.960

gesehen, ging es dann auch noch mal darum, dass eben auch diskutiert wird, so nach dem

00:05:38.960 –> 00:05:45.600

Motto, dass es irgendwas in Zukunft geben soll in Richtung Zertifizierung oder Zertifikate,

00:05:45.600 –> 00:05:51.720

dass es zum Beispiel KI-frei oder sowas entwickelt wurde. Da musste ich ehrlich gesagt etwas

00:05:51.720 –> 00:05:56.400

schmunzeln, als ich das dann gelesen habe, weil das ist eben nach wie vor aus unserer

00:05:56.400 –> 00:06:01.640

alten Denke heraus. Das hei├čt, gerade das Beispiel, was ich jetzt aufgemacht habe mit

00:06:01.640 –> 00:06:07.400

diesen “Wir werden in Zukunft nur noch l├Âsungsorientiert oder ergebnisorientiert denken”, aber nicht

00:06:07.400 –> 00:06:13.120

mehr im Hinblick gro├čartig ├╝ber den Prozess an vielen Stellen nachdenken m├╝ssen, weil

00:06:13.120 –> 00:06:16.640

das eben gewisse Systeme in der Kombination auch f├╝r uns ├╝bernehmen.

00:06:16.640 –> 00:06:23.400

Und wenn ich mir jetzt dann anschaue, so was wie Zertifikate oder sonst irgendwas, kann

00:06:23.400 –> 00:06:26.880

ich nur sagen, na ja gut, also zum einen stellt sich die Frage, wie l├Ąsst sich das ├╝berhaupt

00:06:26.880 –> 00:06:27.880

├╝berpr├╝fen?

00:06:27.880 –> 00:06:29.320

Das kann ich gar nicht ├╝berpr├╝fen.

00:06:29.320 –> 00:06:34.680

Von daher ist eigentlich so ein Zertifikat im Grunde genommen auch in Anf├╝hrungsstrichen

00:06:34.680 –> 00:06:35.680

nichts wert.

00:06:35.680 –> 00:06:40.760

Und abgesehen davon l├Ąsst diese sich auch nicht vermeiden, dass jemand behauptet, die

00:06:40.760 –> 00:06:44.320

Inhalte selbst erstellt zu haben, die vielleicht auch nicht erstellt sind.

00:06:44.320 –> 00:06:45.840

Also man kann das gar nicht ├╝berpr├╝fen.

00:06:45.840 –> 00:06:50.280

Also die ├ťberpr├╝fbarkeit ist an dieser Stelle einfach nicht gegeben.

00:06:50.280 –> 00:06:56.400

Und das andere ist halt dieses, ├Ąhnlich wie mit dem Kopieren oder anderen Sachen, die

00:06:56.400 –> 00:07:01.040

wir schon aufgegriffen haben an verschiedenen Stellen. Die Frage ist, braucht es hier in

00:07:01.040 –> 00:07:06.680

dem Zusammenhang nicht auch ein gewisses Umdenken sozusagen, also ein Umdenken in Bezug auf

00:07:06.680 –> 00:07:12.600

“Wir d├╝rfen nicht abschreiben, wir d├╝rfen nicht kopieren”? Letztens habe ich mit jemandem

00:07:12.600 –> 00:07:18.120

im Austausch, da ging es dann auch um solche Aspekte wie Urhebergeschichten und so weiter.

00:07:18.120 –> 00:07:22.320

Und da habe ich dann einfach mal die Frage gestellt, na ja gut, aber vielleicht brauchen

00:07:22.320 –> 00:07:25.240

Wir haben ja gar keinen Urheberschutz.

00:07:25.240 –> 00:07:29.920

Also vielleicht sollten wir das einfach mal ├╝berdenken, ob das ├╝berhaupt notwendig ist.

00:07:29.920 –> 00:07:35.680

Wie cool w├Ąre es denn vielleicht, wenn wir einfach diese Informationen zug├Ąnglich h├Ątten

00:07:35.680 –> 00:07:39.640

und dementsprechend dann daran auch weiterarbeiten k├Ânnen.

00:07:39.640 –> 00:07:43.080

Also auch das w├Ąre ja eine M├Âglichkeit, damit anders zu denken und umzugehen.

00:07:43.080 –> 00:07:48.200

Und das mal so als erste Gedanken in den Raum gestellt und dann bin ich einfach mal gespannt,

00:07:48.200 –> 00:07:50.400

welche Impulse jetzt auch nochmal von euch kommen.

00:07:50.400 –> 00:07:53.900

Einen wundersch├Ânen guten Morgen, lieber Marc. Was sagst du denn dazu?

00:07:53.900 –> 00:07:58.100

Guten Morgen in die Runde und einen tollen Start in die Woche w├╝nsche ich euch allen.

00:07:58.100 –> 00:08:03.900

Zwei Begriffe w├╝rde ich gerne noch erg├Ąnzen. Du hast das ja schon sch├Ân erkl├Ąrt und uns Wikipedia da zitiert.

00:08:03.900 –> 00:08:08.600

Und ich habe mich bei der Besch├Ąftigung mit dem Thema noch gefunden, dass dann die Ingenieure,

00:08:08.600 –> 00:08:13.100

dass es da auch noch einen gro├čen Unterschied gibt und einmal zwar Robotik ist ja ein Riesenthema

00:08:13.100 –> 00:08:18.100

und es wird auch teilweise noch unterschieden zwischen Automatisierung und unter Automatisierung

00:08:18.100 –> 00:08:22.380

versteht man das Ersetzen des menschlichen Handelns und die Mechanisierung,

00:08:22.380 –> 00:08:27.460

die Erweiterung der menschlichen F├Ąhigkeiten in punkto Kraft, Gr├Â├če, Ausdauer.

00:08:27.460 –> 00:08:31.780

Und was ich total spannend finde, ich hatte gestern ein bisschen Zeit, mich mit dem Thema zu besch├Ąftigen

00:08:31.780 –> 00:08:36.500

und wir haben ja schon viele R├Ąume gemacht und auch da, wenn man sich mit dem Thema besch├Ąftigt

00:08:36.500 –> 00:08:40.460

und unsere gro├če Suchmaschine zur Hilfe nimmt, kommt es auf unseren Blickwinkel an.

00:08:40.460 –> 00:08:43.780

Ich finde ganz, ganz schreckliche Sachen von furchtbar, furchtbar, furchtbar.

00:08:43.780 –> 00:08:47.660

Ich kann aber auch eine andere Position einnehmen.

00:08:47.660 –> 00:08:51.900

Ich m├Âchte gerne das Thema, die Verein stehen, mit dem Positiven anfangen.

00:08:51.900 –> 00:08:55.380

Es gibt halt Untersuchungen, die findet man auch zuhauf im Internet.

00:08:55.380 –> 00:08:57.900

Menschen haben Angst vor Robotern und so weiter.

00:08:57.900 –> 00:09:02.300

Aber es gibt auch mittlerweile Fakten, das sagst du ja immer, hinterfragen,

00:09:02.300 –> 00:09:05.340

ist die Angst denn berechtigt? Was passiert denn wirklich?

00:09:05.340 –> 00:09:07.740

Und im asiatischen Raum hat man festgestellt,

00:09:07.740 –> 00:09:12.580

dass bei diesen Asien-Pacific-Regionen,

00:09:12.580 –> 00:09:19.100

da gibt es kaum Arbeitslosigkeit. Also ├╝berall in S├╝dkorea, Japan und Singapur, wo die schon

00:09:19.100 –> 00:09:23.260

sehr fortgeschritten sind mit der Automatisierung, hat das nicht zur Arbeitslosigkeit gef├╝hrt,

00:09:23.260 –> 00:09:28.500

sondern im Gegenteil zu mehr Besch├Ąftigung. Und die zweite Frage, ich glaube, in dem Raumthema

00:09:28.500 –> 00:09:34.140

stand gestern noch, wer steckt da dahinter? Also Roboter sind auf jeden Fall eine Schl├╝sseltechnologie

00:09:34.140 –> 00:09:39.020

und total spannend, fand ich auch, wenn man sich dann auch damit besch├Ąftigt, das ist

00:09:39.020 –> 00:09:41.960

jetzt nicht ganz Thema dieses Raumes, aber wenn man wei├č, dass das eine

00:09:41.960 –> 00:09:45.600

Schl├╝sseltechnologie ist, wer steckt da dahinter? Unter anderem hatten wir in

00:09:45.600 –> 00:09:49.440

Deutschland eine ganz, ganz tolle Firma in Augsburg, die in Europa Marktf├╝hrer

00:09:49.440 –> 00:09:54.600

war f├╝r Robotik. Die ist mittlerweile zu 100 Prozent im chinesischen Besitz und

00:09:54.600 –> 00:09:57.120

in Deutschland gibt es nur noch eine Firma, auf die wir eigentlich gekommen

00:09:57.120 –> 00:10:00.760

d├╝rfen, die sich auch mit Robotik besch├Ąftigt. Ansonsten liegen da die

00:10:00.760 –> 00:10:07.040

Japaner und S├╝dkorea vor, so dass wir auch da zumindest, wenn wir nicht den Blick

00:10:07.040 –> 00:10:11.160

in der Statistik finden, dass Deutschland immer noch ganz vorne mit dabei ist,

00:10:11.160 –> 00:10:15.520

wenn man googelt, also welche Hersteller stellen ├╝berhaupt Robotik her, aber wenn

00:10:15.520 –> 00:10:18.640

man dann wieder tiefer geht und sich andere Statistiken anguckt, geh├Ârt diese

00:10:18.640 –> 00:10:22.280

Firma, die der Markt findet, leider gar kein deutsches Unternehmen mehr, sondern

00:10:22.280 –> 00:10:25.080

einem Chinesen.

00:10:25.080 –> 00:10:28.680

Ja wunderbar, vielen, vielen lieben Dank. Da waren ja auch schon verschiedene

00:10:28.680 –> 00:10:31.920

Aspekte mit dabei. Dann lass uns doch direkt auch J├╝rgen noch mal mit einbinden

00:10:31.920 –> 00:10:34.800

und gucken, welche Aspekte hier noch mal mit dazu kommen und dann k├Ânnen wir

00:10:34.800 –> 00:10:37.800

gerne auch Querbez├╝ge herstellen. Einen wundersch├Ânen guten Morgen, lieber J├╝rgen.

00:10:37.800 –> 00:10:44.720

Guten Morgen, liebe Yasemin. Guten Morgen, Marc. Guten Morgen, alle im Raum. Ja,

00:10:44.720 –> 00:10:49.280

ich springe jetzt gleich mal auf die B├╝hne, weil ich den Faden nicht verliere. Ich m├Âchte mich an

00:10:49.280 –> 00:10:58.480

zwei Dingen festmachen, die du in deiner Intro vorgestellt hast. Und zwar ist das einmal,

00:10:58.480 –> 00:11:06.920

habe ich erkannt, gem├Ą├č deiner Spezifikation, dass es drei Stufen gibt. Drei Stufen. Es gibt eine

00:11:06.920 –> 00:11:14.920

eine attributlose Automatisierung. Es gibt grunds├Ątzlich eine Automatisierung. Es gibt

00:11:14.920 –> 00:11:24.400

eine Robotik und es gibt eine intelligente Automatisierung. Die drei Stufen habe ich mal

00:11:24.400 –> 00:11:31.120

f├╝r mich so jetzt f├╝r unsere Diskussion in Sicherheit gebracht. Und im Hinblick auf die

00:11:31.120 –> 00:11:39.920

Unterscheidung, die du getroffen hast, m├Âchte ich eines noch erg├Ąnzen. Und zwar zwischen Robotik

00:11:39.920 –> 00:11:52.000

und intelligenter Automatisierung wird eine Unterscheidung getroffen, dass der erste Teil

00:11:52.000 –> 00:11:59.600

Teilbereich der Robotik in einer festverdrahteten, regelbasierten Prozessstruktur l├Ąuft.

00:11:59.600 –> 00:12:07.560

Der l├Ąuft ab, ich wei├č nicht, ob einer mal von euch im VW-Werk war oder im BMW-Werk.

00:12:07.560 –> 00:12:14.960

Ich habe mir das angetan als Fachfremder, um mir diese Robotikstra├čen anzusehen und

00:12:14.960 –> 00:12:24.320

Das ist absolut beeindruckend, aber es l├Ąuft auf den M├╝h-Millimeter exakt genau nach ganz

00:12:24.320 –> 00:12:32.440

bestimmten Regeln ab. Die Unterscheidung zur intelligenten Automatisierung und du sprachst

00:12:32.440 –> 00:12:39.480

es bereits begrifflich auch an, Livias Mihn, ist, dass diese nicht auf Regeln basiert,

00:12:39.480 –> 00:12:49.500

sondern auf Entscheidungen, was ja Intelligenz voraussetzt. Und das f├╝hrt mich zu dem Thema,

00:12:49.500 –> 00:12:59.980

in dem ich zum Teil ├╝ber l├Ąngere Zeit besch├Ąftigt war, n├Ąmlich die Prozessanalyse und die

00:12:59.980 –> 00:13:07.420

Prozessoptimierung. Und wenn ich diese zwei Positionen mir anschaue, der Ausgestaltung,

00:13:07.420 –> 00:13:15.060

wie automatisiere, wie robotisiere ich meine Gesch├Ąftsprozesse, komme ich logischerweise zu

00:13:15.060 –> 00:13:21.540

dem Ergebnis als Grundlage, wesentlich Grundlage, nein nicht nur wesentlich, sondern sie ist

00:13:21.540 –> 00:13:28.340

bedingungslos, brauche ich Daten. Und das ist dieser Teilbereich, in dem ich zum Teil t├Ątig

00:13:28.340 –> 00:13:35.180

war, dieses Prozessmining, Prozessanalyse und Analysen zu betreiben, welche Daten fallen

00:13:35.180 –> 00:13:43.100

denn an welchen St├╝tzstellen dieses Prozesses an? Um dann, und ich sage ganz bewusst, um dann eine

00:13:43.100 –> 00:13:48.780

Entscheidung zu treffen, f├╝r welchen Weg entscheide ich mich f├╝r die Roboterisierung,

00:13:48.780 –> 00:13:58.660

n├Ąmlich sind meine Daten qualitativ so gut und meine Algorithmen so gut, oder nur so gut,

00:13:58.660 –> 00:14:08.260

dass ich sie regelbasieren muss oder sind sie so gut, dass ich sogar wenn dann Schleifen oder

00:14:08.260 –> 00:14:15.100

Kontrollschleifen mit Qualit├Ątskriterien einpflegen kann, die dann entscheiden, wie

00:14:15.100 –> 00:14:24.820

diese Automatisierung weiterl├Ąuft. Ein sehr spannendes Thema insbesondere vor der aktuellen

00:14:24.820 –> 00:14:32.380

Entwicklung. Das m├Âchte ich euch nur noch mal auch in Anbindung an unsere letzten R├Ąume

00:14:32.380 –> 00:14:45.300

mitteilen. Microsoft ist es nach Kennern gelungen SAP mehr oder weniger zu kujonieren und zu zwingen

00:14:45.300 –> 00:14:56.740

ihre Microsoft Bots in ihre Standardanwendungen aufzunehmen. Also Bots, die in Richtung k├╝nstliche

00:14:56.740 –> 00:15:05.580

Intelligenz gehen. Und die erste Erfolgsmeldung von SAP ist auch schon ver├Âffentlicht worden.

00:15:05.580 –> 00:15:10.380

Das hei├čt, wer gibt hier die PACE vor, meine Lieben?

00:15:10.380 –> 00:15:15.980

Die PACE gibt derjenige vor, der die Daten besitzt.

00:15:15.980 –> 00:15:19.860

Und dann sind wir wieder bei unserem gro├čen Thema Digitalisierung.

00:15:19.860 –> 00:15:21.660

Vielen Dank f├╝rs Zuh├Âren.

00:15:21.660 –> 00:15:25.740

Ja wunderbar, vielen, vielen lieben Dank.

00:15:25.740 –> 00:15:31.940

Und das ist total spannend an der Stelle, weil gerade der Aspekt mit den Daten total relevant ist.

00:15:31.940 –> 00:15:37.340

auch in Bezug auf die Aspekte, die wir mit angesprochen haben, so was wie zum Beispiel

00:15:37.340 –> 00:15:43.460

Datenschutz spielt jetzt hier eine ganz gro├če Rolle in dem Zusammenhang. Und hier muss tats├Ąchlich

00:15:43.460 –> 00:15:48.860

ganz viel auch diskutiert und auch ├╝berlegt werden, denn auf der einen Seite hat es nat├╝rlich

00:15:48.860 –> 00:15:55.060

sehr, sehr positive Seiten, dass im Sinne des Datenschutzes eben auch nicht allzu viele

00:15:55.060 –> 00:15:59.420

Daten eingesammelt werden k├Ânnen oder nicht auf Dauer gespeichert werden k├Ânnen oder,

00:15:59.420 –> 00:16:04.940

oder oder. Hier gibt es ja ganz verschiedene Bereiche und je nach Konstellation ist die

00:16:04.940 –> 00:16:09.740

Verweildauer unterschiedlich und so weiter und so fort. Und auf der anderen Seite funktionieren

00:16:09.740 –> 00:16:15.380

eben diese intelligenten Systeme eben entsprechend auch mit den Daten. Und die Frage ist nat├╝rlich

00:16:15.380 –> 00:16:20.860

ein St├╝ck weit, wenn wir die Daten beispielsweise an verschiedenen Stellen nicht einsammeln

00:16:20.860 –> 00:16:28.540

k├Ânnen, also nicht d├╝rfen und andere es aber tun d├╝rfen, in Anf├╝hrungsstrichen,

00:16:28.540 –> 00:16:32.700

Was bedeutet das dann auch im Umkehrschluss in Bezug auf eine Entwicklung auf zum Beispiel

00:16:32.700 –> 00:16:34.540

gesellschaftlicher Ebene f├╝r Deutschland?

00:16:34.540 –> 00:16:35.540

J├╝rgen.

00:16:35.540 –> 00:16:43.460

Ja, du sprichst das Thema, so interpretiere ich dich, liebe Yasemin, du sprichst das Schl├╝sselthema

00:16:43.460 –> 00:16:45.620

der Macht der Plattformen an.

00:16:45.620 –> 00:16:49.540

Bitte korrigiere ich, korrigiere mich, wenn ich falsch liege.

00:16:49.540 –> 00:16:55.220

Das meinte ich mit meiner Begrifflichkeit, der hat die Macht, wo die Daten liegen.

00:16:55.220 –> 00:17:00.200

Und mit den Daten, unter Daten subsumiere ich auch deren Nutzung unter bestimmten

00:17:00.200 –> 00:17:01.860

algorithmischen Verkn├╝pfungen.

00:17:01.860 –> 00:17:07.140

Und genau das ist ein ganz wesentlicher Punkt, den ich

00:17:07.140 –> 00:17:12.220

unumwunden abnicke. Das ist die gro├če Herausforderung, finde

00:17:12.220 –> 00:17:17.660

ich, solchen Institutionen wie Microsoft

00:17:17.660 –> 00:17:21.940

und Apple und Google, die eben auf, die sitzen auf,

00:17:22.420 –> 00:17:27.260

Ich sage immer, auf den riesigen Getreidefeldern, aus denen man das

00:17:27.260 –> 00:17:29.260

zuk├╝nftige Brot macht.

00:17:29.260 –> 00:17:34.100

Und wer diese Getreidefelder besitzt und sie hegt und pflegt,

00:17:34.100 –> 00:17:37.100

der bestimmt, welches Brot wir essen.

00:17:37.100 –> 00:17:42.020

Und lass mich eins bitte noch einwerfen, auch das war schon mal Thema

00:17:42.020 –> 00:17:44.020

in einem unserer R├Ąume.

00:17:44.020 –> 00:17:50.180

Auch aus meiner Erfahrung heraus in der Prozessoptimierung,

00:17:50.180 –> 00:17:55.340

Die Prozessoptimierung, die ja Grundlage ist und die Datengrundlage

00:17:55.340 –> 00:18:00.700

auch schafft, l├Ąuft auch wie alles andere unter einem ├Âkonomischen

00:18:00.700 –> 00:18:03.500

Input-Output-Kosten-Nutzen-Aspekt.

00:18:03.500 –> 00:18:07.620

Ich will damit nur sagen, unumwunden abzunicken,

00:18:07.620 –> 00:18:13.460

dass unsere ganze Welt in Zukunft verautomatisiert oder robotisiert

00:18:13.460 –> 00:18:18.060

ist, ist meines Erachtens kein zielf├╝hrender Ansatz.

00:18:18.060 –> 00:18:23.380

zielf├╝hrender Ansatz, denn es wird immer die M├Âglichkeit geben,

00:18:23.380 –> 00:18:29.540

den ├Âkonomischen Nutzen eher noch auf der hessischen Seite zu sehen,

00:18:29.540 –> 00:18:35.660

gerade was physische Routinen betrifft, nicht so sehr geistige

00:18:35.660 –> 00:18:41.900

Routinen, als diese sehr teuren und das auch noch im Grunde sehr

00:18:41.900 –> 00:18:45.700

pflegebed├╝rftigen Systemen zu nutzen.

00:18:45.700 –> 00:18:49.700

bed├╝rftigen Systemen zu ├╝bergeben.

00:18:49.700 –> 00:18:53.700

Das sollte man nicht aus dem Auge verlieren.

00:18:53.700 –> 00:18:57.700

Vielen lieben Dank.

00:18:57.700 –> 00:19:01.700

Ich switche auch gerne gleich zu Marc r├╝ber. Ich m├Âchte kurz noch mal den Hinweis

00:19:01.700 –> 00:19:05.700

geben, dass wir den Raum aufzeichnen, das hei├čt, wer mit auf die B├╝hne kommt,

00:19:05.700 –> 00:19:09.700

ist automatisch damit einverstanden und wir haben drei

00:19:09.700 –> 00:19:13.700

kleine Raumregeln, um hier mit dazu zu kommen, in die Interaktionen einzusteigen

00:19:13.700 –> 00:19:18.620

zu steigen auf der B├╝hne. Eines davon ist ein Profilfoto, auf dem ihr klar zu erkennen

00:19:18.620 –> 00:19:23.060

seid. Vor- und Nachnahme und mindestens einen Satz in der Bio, einfach um sicherzustellen,

00:19:23.060 –> 00:19:27.820

dass es um ernst gemeinte Beitr├Ąge sich handelt und keine Klapphaustrolle. Wer das aus irgendwelchen

00:19:27.820 –> 00:19:33.260

Gr├╝nden nicht m├Âchte, ist herzlich eingeladen, seine Gedankeng├Ąnge oder auch Fragen sozusagen

00:19:33.260 –> 00:19:37.140

├╝ber den Chat mit hier rein zu geben. Das vielleicht nochmal als Hinweis, damit ihr

00:19:37.140 –> 00:19:41.060

entsprechend das ber├╝cksichtigen k├Ânnt, ab├Ąndern k├Ânnt oder eben ├╝ber den Chat

00:19:41.060 –> 00:19:44.380

euch beteiligen k├Ânnt. Marc, du wolltest gerne hiermit anschlie├čen.

00:19:44.380 –> 00:19:48.660

Ja, ich m├Âchte gerne nochmal eine andere Blickrichtung auf das Thema geben und

00:19:48.660 –> 00:19:52.180

zwar, ich habe ja gesagt, ich habe mich am Sonntag damit besch├Ąftigt und je nachdem

00:19:52.180 –> 00:19:55.340

welchen Gesichtspunkt ich habe, finde ich unterschiedliche Berichte und meine

00:19:55.340 –> 00:19:58.580

Meinung ├Ąndert sich dann auch starkartig. Und ich bin auf einen interessanten

00:19:58.580 –> 00:20:02.660

Bericht gesto├čen von der EU und zwar gibt es in der EU ein Projekt Reela und

00:20:02.660 –> 00:20:05.900

da geht es nicht darum, was der J├╝rgen gesagt hat, auch nat├╝rlich gibt es das,

00:20:05.900 –> 00:20:09.620

Prozessoptimierung, wenn wir von der Produktion sprechen.

00:20:09.620 –> 00:20:14.380

Es gibt aber auch eine d├Ąnische Professorin und ganz, ganz viele Menschen besch├Ąftigen sich mit dem Thema,

00:20:14.380 –> 00:20:17.660

wo die Zukunft auch darin liegen kann, in anderen Bereichen.

00:20:17.660 –> 00:20:23.620

Wie kann eine Zusammenarbeit mit einer Maschine, mit einem Roboter, zusammen mit den Menschen aussehen,

00:20:23.620 –> 00:20:25.420

wo der Mensch also unterst├╝tzt wird?

00:20:25.420 –> 00:20:28.660

Einmal im Gesundheitsbereich, dass es da mittlerweile Systeme gibt,

00:20:28.660 –> 00:20:30.900

wo Querschnittsgelente wieder laufen k├Ânnen,

00:20:30.900 –> 00:20:35.220

weil da die Robotik und die Maschine Aufgaben ├╝bernimmt, einmal im Krankenhaus.

00:20:35.220 –> 00:20:38.020

Und damit das ├╝berhaupt gew├Ąhrleistet werden kann,

00:20:38.020 –> 00:20:43.060

gibt es da auch Leute, die sich zusammentun und die sprechen explizit mit Endanwendern.

00:20:43.060 –> 00:20:46.660

Also das sind nicht nur Ingenieure oder Leute, die sagen, wir m├╝ssen Prozesse optimieren,

00:20:46.660 –> 00:20:50.100

sondern das sind Leute, die durchs Krankenhaus gehen und sagen, wir haben jetzt so einen Roboter

00:20:50.100 –> 00:20:54.580

und dann stellen die fest, dass der Roboter ganz toll ist, dass aber damit der Patient

00:20:54.580 –> 00:20:59.220

diesen Roboter nutzen kann, muss dieses Teil, ja, was dem Patienten hilft, auf den R├╝cken kommen.

00:20:59.220 –> 00:21:02.460

Das muss umgeschnallt werden. Gibt es da Prozesse, die wir vereinfachen k├Ânnen?

00:21:02.460 –> 00:21:06.780

Oder zum Beispiel, wenn ihr an die Gastronomie denkt, die haben ja Fachkr├Ąftemangel.

00:21:06.780 –> 00:21:08.780

├╝ber einer Gastronomie Fachkr├Ąftemangel.

00:21:08.780 –> 00:21:10.780

Nun, was kann denn jemand machen, der ein Restaurant hat?

00:21:10.780 –> 00:21:14.380

Der braucht auf jeden Fall einen Koch, da f├╝hrt kein Weg dran vorbei.

00:21:14.380 –> 00:21:16.380

Das Essen muss ja jemand machen.

00:21:16.380 –> 00:21:20.780

Aber wenn der niemand mehr findet, der bedient, dann werden da vielleicht irgendwann mal kleine Roboter hin und her fahren,

00:21:20.780 –> 00:21:22.780

die mich sogar auch erkennen.

00:21:22.780 –> 00:21:24.780

Finde ich das toll? Nein, gef├Ąllt mir nicht.

00:21:24.780 –> 00:21:27.780

Ich finde es immer pers├Ânlicher, wenn ich mit einem Kellner gehen kann.

00:21:27.780 –> 00:21:30.780

Bevor ich aber nie mehr in K├Âln Essen geben kann, w├╝rde ich auch akzeptieren,

00:21:30.780 –> 00:21:34.780

dass mir das Essen auf so einen fahrbaren Roboter hingegen gebracht wird.

00:21:34.780 –> 00:21:39.020

damit meine ich nur nicht ├╝berall geht es nur darum Geld zu sparen, also im Sinne von

00:21:39.020 –> 00:21:43.100

Herstellungsprozess, sondern es gibt auch viele Prozesse, wo es wirklich darum geht,

00:21:43.100 –> 00:21:47.620

wie k├Ânnen Maschinen Menschen in Zukunft unterst├╝tzen? Und der letzte Punkt, den ich

00:21:47.620 –> 00:21:51.580

da noch gefunden habe f├╝r mich, wir haben ja eine ├╝beralternde Gesellschaft und viele

00:21:51.580 –> 00:21:55.380

haben gar keine Kinder mehr. Auch die Kinderanzahl geht in Deutschland ja zur├╝ck. Wer kauft

00:21:55.380 –> 00:21:59.260

denn sp├Ąter mal f├╝r mich ein? Auch da wird es wahrscheinlich vielleicht Maschinen geben,

00:21:59.260 –> 00:22:02.980

dass ich anrufen kann bei dem Lebensmittelladen, den es noch gibt und sage, ich h├Ątte gerne

00:22:02.980 –> 00:22:07.420

Piste Wasser und wenn die niemand haben, der mir das bringt, dass dann fahrende

00:22:07.420 –> 00:22:10.260

Roboter unterwegs sind, wo ich mir das dann unten abholen kann.

00:22:10.260 –> 00:22:15.140

Also ich sehe das nicht nur schwarz oder wei├č, sondern das Feld ist so gro├č, dass

00:22:15.140 –> 00:22:18.340

es bestimmt auch Bereiche gibt, die ich mir jetzt noch nicht vorstellen kann. Das

00:22:18.340 –> 00:22:22.700

sind ja alles nur Illusionen und W├╝nsche, wo ich sagen muss, oh Mensch, gut, dass es

00:22:22.700 –> 00:22:27.700

das gibt. Das hilft mir jetzt pers├Ânlich und das schadet mir nicht.

00:22:28.900 –> 00:22:33.380

Ja, vielen, vielen lieben Dank. Und ja, der

00:22:33.380 –> 00:22:35.460

Blickwinkel ist an der Stelle

00:22:35.460 –> 00:22:36.780

tats├Ąchlich relevant, weil je nachdem,

00:22:36.780 –> 00:22:39.060

wie wir drauf gucken, kommen wir immer

00:22:39.060 –> 00:22:42.900

wieder zu auch unterschiedlichen

00:22:42.900 –> 00:22:44.220

Ergebnissen sozusagen. Und du hast jetzt

00:22:44.220 –> 00:22:45.580

gerade auch diesen Aspekt der

00:22:45.580 –> 00:22:47.500

├╝beralternden Gesellschaft

00:22:47.500 –> 00:22:50.980

angesprochen. Wir haben ja letztens auch

00:22:50.980 –> 00:22:53.100

├╝ber F├╝hrungskr├Ąfte oder Fachkr├Ąftemangel

00:22:53.100 –> 00:22:54.780

und so weiter auch gesprochen. Das hei├čt,

00:22:54.780 –> 00:22:56.700

hier sind ja tats├Ąchlich, also

00:22:56.700 –> 00:22:58.300

noch mal um das zu best├Ątigen, was du

00:22:56.700 –> 00:23:01.540

gerade gesagt hast, hier geht es nicht nur ausschlie├člich um Kosten-Nutzen-Faktor,

00:23:01.540 –> 00:23:07.220

sondern eben auch darum, dass vielleicht Stellen, die unbesetzt bleiben aktuell,

00:23:07.220 –> 00:23:12.620

eben durch solche Technologien auch langfristig betrachtet vielleicht auch unbesetzt bleiben

00:23:12.620 –> 00:23:18.620

k├Ânnen, weil man vielleicht auch weniger Human Resources an der Stelle sozusagen ben├Âtigt. Also

00:23:18.620 –> 00:23:22.740

wenn man vorher vielleicht bestimmte Aufgaben, identische Aufgaben zum Beispiel auf zehn

00:23:22.740 –> 00:23:26.520

Mitarbeiter verteilt hat, kann es sein, dass ich jetzt durch die neuen

00:23:26.520 –> 00:23:30.800

Technologien, die ich hier einsetzen kann, Automatisierung und intelligente Systeme

00:23:30.800 –> 00:23:36.400

zusammenf├╝hre, dass dann durch gewisse, durch die Abnahme von Routinet├Ątigkeiten

00:23:36.400 –> 00:23:41.360

beispielsweise und dann eben auch die intelligente Weiterentwicklung von

00:23:41.360 –> 00:23:46.080

L├Âsungsoptionen, Erkennung von Problemen und so weiter, dass dann eben dadurch

00:23:46.080 –> 00:23:51.120

auch die M├Âglichkeit entsteht, dass gerade auch dieses Thema Fachkr├Ąftemangel

00:23:51.120 –> 00:23:54.920

und so weiter, dadurch ein St├╝ck weit auch wieder aufgefangen werden kann.

00:23:54.920 –> 00:23:57.560

Also das man aus dieser Perspektive betrachtet.

00:23:57.560 –> 00:24:01.040

Dann, wenn wir nochmal diesen Aspekt mit den Daten aufgreifen,

00:24:01.040 –> 00:24:02.600

da gibt es auch verschiedene Perspektiven.

00:24:02.600 –> 00:24:04.880

Da k├Ânnen wir jetzt auf der einen Seite draufschauen mit

00:24:04.880 –> 00:24:09.440

ja, die M├Ąchtigen, die die Daten haben, die sind hier einfach

00:24:09.440 –> 00:24:14.440

anderen voraus oder man kommt in eine Abh├Ąngigkeit rein.

00:24:14.440 –> 00:24:17.520

Da k├Ânnte man jetzt diskutieren in die Richtung

00:24:17.520 –> 00:24:20.280

Muss man da die Monopole vielleicht schw├Ąchen?

00:24:20.280 –> 00:24:22.680

Auf irgendeine Art und Weise kann das ├╝berhaupt gelingen?

00:24:22.680 –> 00:24:25.040

Wie m├╝sste sich das gestalten?

00:24:25.040 –> 00:24:28.420

Weil es reicht ja dann an dieser Stelle auch nicht aus, diese Diskussion

00:24:28.420 –> 00:24:33.600

in einem Deutschland oder in einem Europa zu f├╝hren, sondern auch wenn Europa sich

00:24:33.600 –> 00:24:37.560

daf├╝r entscheiden w├╝rde, aber der Rest der Welt nicht mitmacht, hilft es an der

00:24:37.560 –> 00:24:41.860

Stelle auch nicht. Also auch diese H├╝rden sind zu sehen an der Stelle.

00:24:42.320 –> 00:24:49.040

Und dann gleichzeitig eben allgemein diese Diskussion mit dem ganzen Kontext

00:24:49.040 –> 00:24:54.440

Datenschutz. Das hei├čt auch schon in den letzten Jahren, nicht erst jetzt, sondern

00:24:54.440 –> 00:24:59.880

auch in den letzten Jahren, welche Verluste oder Entwicklungspotenziale

00:24:59.880 –> 00:25:04.480

haben wir als Deutschland oder Europa sozusagen jetzt schon verpasst, weil wir

00:25:04.480 –> 00:25:10.000

vor dem Hintergrund des Datenschutzes diese Daten eben nicht zugelassen haben, dass

00:25:10.000 –> 00:25:13.900

sie gesammelt werden k├Ânnen? Das ist mal die eine Fragestellung. Auf der anderen Seite

00:25:13.900 –> 00:25:19.660

ist es nat├╝rlich auch zu diskutieren, ja, aber was w├╝rde das denn dann bedeuten, wenn

00:25:19.660 –> 00:25:25.980

all das aufgehoben wird, Daten ├╝berall nur noch gesammelt werden? Ist das dann nicht

00:25:25.980 –> 00:25:32.100

auch eine, welche Gefahren ergeben sich dann daraus und welche Form der Demokratie entwickelt

00:25:32.100 –> 00:25:36.820

sich daraus eigentlich? Ist das ├╝berhaupt noch eine Demokratie an der Stelle mit vielen

00:25:36.820 –> 00:25:41.700

Aspekten und Stafetten, die man hier jetzt mit ber├╝cksichtigen kann, oder auch

00:25:41.700 –> 00:25:45.060

Zentralisierung, Dezentralisierung und so weiter sind alles Aspekte, die hier

00:25:45.060 –> 00:25:52.060

mit rein spielen. Und da haben wir auf jeden Fall auch nochmal, um das Ganze

00:25:52.060 –> 00:25:56.420

dann sp├Ąter auf politischer Ebene nochmal zu diskutieren,

00:25:56.420 –> 00:26:00.100

werden wir dann in ein paar Wochen auch nochmal R├Ąume haben. Wir k├Ânnen es

00:26:00.100 –> 00:26:04.060

im Prinzip immer wieder jetzt schon mal anstreifen, dass man deutlich sieht,

00:26:04.060 –> 00:26:10.260

welchen “Rattenschwanz” die ganze Thematik auch mit sich bringt.

00:26:10.260 –> 00:26:14.180

Und dass es hier auf verschiedenen Ebenen tats├Ąchlich eben darum geht,

00:26:14.180 –> 00:26:15.900

drauf zu schauen und zu ├╝berlegen.

00:26:15.900 –> 00:26:20.420

Aus der Unternehmer-Sicht betrachtet, kann ich sagen,

00:26:20.420 –> 00:26:23.500

dass es in jedem Fall ein Problem darstellt.

00:26:23.500 –> 00:26:27.660

Offenkundig, wenn wir keine Daten einsammeln k├Ânnen,

00:26:27.660 –> 00:26:30.500

dann k├Ânnen wir eben im Wettbewerb nicht mehr mithalten.

00:26:30.500 –> 00:26:37.940

Wenn wir aber dann auf der gesellschaftspolitischen Ebene diskutieren, dann haben wir eben wieder

00:26:37.940 –> 00:26:40.660

andere Herausforderungen, die es zu meistern gilt.

00:26:40.660 –> 00:26:44.740

Und das zeigt, wie komplex dieses Thema an der Stelle ist und dass wir aber vor allen

00:26:44.740 –> 00:26:49.140

Dingen eben nicht alleine agieren, sondern immer im Zusammenspiel, also global das Ganze

00:26:49.140 –> 00:26:50.260

auch betrachten m├╝ssen.

00:26:50.260 –> 00:26:55.660

Das hei├čt, wenn jetzt so etwas wie in Italien wird irgendwas verboten oder so, uns das anschauen

00:26:55.660 –> 00:27:00.860

oder in Europa wird irgendwas verboten, stellt sich ja die Frage, was ist denn die Konsequenz

00:27:00.860 –> 00:27:05.900

daraus? Hei├čt es denn, dass die anderen nicht weitermachen oder h├Ąngen wir uns selbst damit

00:27:05.900 –> 00:27:11.980

auch ein St├╝ck weit komplett selbst ab? Und die Frage ist jetzt hier also, wie weit kann

00:27:11.980 –> 00:27:16.300

man das ├╝berhaupt verhindern oder was bedeutet das in der Konsequenz? Oder muss man diese

00:27:16.300 –> 00:27:20.140

Entwicklung eben nicht bis zu einem gewissen Teil, auch wenn es schmerzhaft ist, an der

00:27:20.140 –> 00:27:24.140

einen oder anderen Stelle sogar mitgehen, weil wir es eben nicht ausbremsen k├Ânnen?

00:27:24.140 –> 00:27:27.140

Und da bin ich mal gespannt, was ihr dazu sagt, Marc-J├╝rgen.

00:27:27.140 –> 00:27:30.140

Wollt ihr da noch mal anschlie├čen? Ja, gerne, J├╝rgen. Und dann Marc.

00:27:30.140 –> 00:27:35.140

Ja, als Erstes herzlichen Dank, lieber Marc, f├╝r deine Ausf├╝hrung.

00:27:35.140 –> 00:27:43.140

Du hast uns eigentlich wieder zur├╝ckgef├╝hrt auf das ureigentliche Thema,

00:27:43.140 –> 00:27:47.140

n├Ąmlich die Verbindung zur Arbeitswelt. Und daf├╝r meinen Dank.

00:27:47.140 –> 00:27:51.140

Und das Zweite, liebe Yasemin, ich bin fast nicht nachgekommen

00:27:51.140 –> 00:27:57.220

bei all diesen Verbindungen, die du aufgezeigt hast, dankenswerterweise,

00:27:57.220 –> 00:28:07.380

die Komplexit├Ąt, die dieses Thema mal wieder ausmacht. Und sei mir nicht b├Âse,

00:28:07.380 –> 00:28:14.620

ich sch├╝tte jetzt noch mal ein Thema mit rein, und zwar, wenn wir ├╝ber Arbeitswelt und Auswirkungen

00:28:14.620 –> 00:28:22.140

auf die Arbeitswelt sprechen, dann reden wir auch meines Erachtens automatisch um die Auswirkung

00:28:22.140 –> 00:28:33.300

der Bildung und Erziehungs- und des Schulsystems. Und wenn wir davon ausgehen, dass auch in Zukunft

00:28:33.300 –> 00:28:43.660

Zukunft die Arbeitswelt in ihrer Dimension, Wirkung und Ausgestaltung eine politische

00:28:43.660 –> 00:28:50.260

Hauptaufgabe darstellt, wie es im Moment ist, nicht umsonst haben wir ein Arbeitsministerium

00:28:50.260 –> 00:29:01.500

und haben ein Bildungsministerium, dann ist das f├╝r mich einmal immer die Forderung,

00:29:01.500 –> 00:29:05.580

diese zwei Teilbereiche in Verbindung zu sehen, will hei├čen,

00:29:05.580 –> 00:29:09.340

ich kann nicht fordern, aufgrund Erkenntnisst├Ąnde aus heutiger

00:29:09.340 –> 00:29:16.340

Sicht werden wir in eine Zukunft mit k├╝nstlicher Intelligenz laufen.

00:29:16.340 –> 00:29:20.060

Ja, mit Konsequenzen f├╝r das Unternehmertum.

00:29:20.060 –> 00:29:24.100

Ja, unter Umst├Ąnden Wahrung vor Monopolisierung der Daten.

00:29:24.100 –> 00:29:29.860

Und dabei aber vergessen, dass wir daf├╝r, f├╝r diese Arbeitswelt,

00:29:29.860 –> 00:29:36.260

die notwendigen aufger├╝steten, im wahrsten Sinne des Wortes, aufger├╝steten Ressourcen brauchen.

00:29:36.260 –> 00:29:43.220

Und das macht das Thema jetzt eigentlich nochmal wirklich zu einem absoluten Monsterthema.

00:29:43.220 –> 00:29:44.460

Vielen Dank f├╝rs Zuh├Âren.

00:29:44.460 –> 00:29:47.740

Ja, absolut. Vielen, vielen lieben Dank, Marc.

00:29:47.740 –> 00:29:53.140

Ja, ich m├Âchte gern noch zwei Punkte erg├Ąnzen und zwar einmal die Auswirkungen auf die Arbeitswelt.

00:29:53.140 –> 00:29:56.940

Wenn man sich fragt, welche Aufgaben ├╝bernehmen Roboter denn jetzt auch?

00:29:56.940 –> 00:30:04.140

Und dann gibt es auch Untersuchungen, dass sehr, sehr viele Arbeiten auch langweilig, schmutzig, gef├Ąhrlich und schwierig sind.

00:30:04.140 –> 00:30:08.140

Das erledigen dann Roboter. Wenn das so ist, dann ist das ja eine tolle Sache.

00:30:08.140 –> 00:30:13.140

Wenn es zu einer Erg├Ąnzung f├╝hrt, dass der Mensch also nicht mehr so schwer heben muss und keine R├╝ckenprobleme hat,

00:30:13.140 –> 00:30:17.140

weil es da Maschinen gibt, die das machen, dann w├Ąre das in dem Fall eine tolle Erg├Ąnzung.

00:30:17.140 –> 00:30:19.740

Und zum Thema Datenschutz, das ist sehr, sehr wichtig.

00:30:19.740 –> 00:30:24.940

Und da wird die Justiz besch├Ąftigen. Da wird es wahrscheinlich in Zukunft auch Spezialisten geben.

00:30:24.940 –> 00:30:28.540

Und es gibt auch viele Unternehmen, zum Beispiel jetzt in der Krebsforschung.

00:30:28.540 –> 00:30:31.020

F├╝r die Krebsforschung braucht man ganz, ganz viele Daten.

00:30:31.020 –> 00:30:35.900

Und durch den Datenschutz kann ein gro├čes Unternehmen in Deutschland seine Krebsforschung

00:30:35.900 –> 00:30:39.220

in Deutschland nicht so gezielt weiterf├╝hren, wie sie sich das w├╝nschen.

00:30:39.220 –> 00:30:44.460

Und verlegt jetzt gro├če Teile der Forschung nach Gro├čbritannien, um da eben weiter im

00:30:44.460 –> 00:30:45.700

Krebsbereich forschen zu k├Ânnen.

00:30:45.700 –> 00:30:49.900

Ja, vielen Dank.

00:30:49.900 –> 00:30:52.820

Und auch das ist ein ganz wichtiger Aspekt.

00:30:52.820 –> 00:30:59.260

Das hei├čt, auch hier, das bedeutet nicht unbedingt, dass das Unternehmen komplett umzieht, sondern

00:30:59.260 –> 00:31:05.060

eben die Hauptsitzverlagerung sozusagen, die dann bestimmte Dinge wie zum Beispiel das

00:31:05.060 –> 00:31:10.580

Dateneinsammeln dann eben in einem Bereich oder in einem Land durchf├╝hrt, wo das eben

00:31:10.580 –> 00:31:12.500

ohne Probleme m├Âglich ist.

00:31:12.500 –> 00:31:14.100

Also auch das sind ja Aspekte.

00:31:14.100 –> 00:31:21.900

Das hei├čt, hier sieht man ja sehr deutlich an diesen konkreten Beispielen auch, der Mensch

00:31:21.900 –> 00:31:27.260

wird erfinderisch. In dem Moment, wo wir k├Ânnen zwar versuchen zu regulieren und zu begrenzen,

00:31:27.260 –> 00:31:32.540

aber in dem Moment, wo wir das tun, gibt es halt immer auch wieder Umwege, die dann auch

00:31:32.540 –> 00:31:38.820

eingeschlagen werden, um sozusagen an der Stelle auch wieder neue M├Âglichkeiten im Sinne des eigenen

00:31:38.820 –> 00:31:44.700

Unternehmens sozusagen und f├╝r das Vorhaben dann auch wieder zu finden. Und dementsprechend stellt

00:31:44.700 –> 00:31:49.140

sich halt die Frage, wie sinnvoll eben auch solche Regulierungen dann an der Stelle dann auch sind

00:31:49.140 –> 00:31:53.980

Und und oder ob wir uns dadurch nicht noch mehr Nachteile sozusagen

00:31:53.980 –> 00:31:58.700

reinholen, die die Problematik in Bezug auf die Entwicklung auch auf

00:31:58.700 –> 00:32:02.740

Arbeitswelt und so weiter heute ja schon abzeichnen lassen mit

00:32:02.740 –> 00:32:06.540

Fachkr├Ąftem├Ąngel und so weiter, dass das nicht umso mehr dadurch

00:32:06.540 –> 00:32:08.540

vielleicht sogar auch verst├Ąrkt wird.

00:32:08.540 –> 00:32:11.660

Damit m├Âchte ich gerne mal Susanne erst mal mit in der Runde

00:32:11.660 –> 00:32:13.660

begr├╝├čen. Einen wundersch├Ânen guten Morgen.

00:32:13.660 –> 00:32:15.660

Was sagst du denn zu dem Thema?

00:32:15.660 –> 00:32:24.460

Ja, einen wundersch├Ânen guten Morgen. Ich wurde getriggert durch Marktausf├╝hrungen in Bezug auf

00:32:24.460 –> 00:32:32.460

Automatisierung in der Arbeitswelt, in Bereichen, wo es halt schwer zu heben ist, wo es schmutzig ist, wo es laut ist und so weiter.

00:32:32.460 –> 00:32:37.740

Und ich muss sagen, da unterst├╝tze ich Automatisierung sehr. Also ich komme aus dem Bereich Arbeitsschutz,

00:32:37.740 –> 00:32:41.260

betreue ja Unternehmen als Fachkraft f├╝r Arbeitssicherheit.

00:32:41.260 –> 00:32:48.060

Da gibt es schon einige Optimierungen, die ich auch unterst├╝tze, um einfach

00:32:48.060 –> 00:32:53.700

auch den Mitarbeiter zu entlasten, um die Gesundheit auch in dem Ma├če zu

00:32:53.700 –> 00:32:59.220

erhalten. Das hei├čt zum Beispiel, wir haben ja nun mal vorhin auch schon

00:32:59.220 –> 00:33:03.580

demografischen Wandel. Ich sehe es immer mehr, dass in den Betrieben der

00:33:03.580 –> 00:33:05.940

Altersdurchschnitt eher nach oben geht als nach unten.

00:33:05.940 –> 00:33:11.660

Nachwuchs fehlt. Gerade im Handwerk oder auch in anderen produzierenden Betrieben

00:33:11.660 –> 00:33:17.180

ist Nachwuchs wirklich ein Riesenthema. Wir haben zum Beispiel einen

00:33:17.180 –> 00:33:23.900

Betrieb, der ist ein Dachdecker bzw. ein Zimmereibetrieb. Wir haben dann

00:33:23.900 –> 00:33:28.420

├╝berlegt, was es denn an M├Âglichkeiten gibt, um den Mitarbeiter davor zu bewahren,

00:33:28.420 –> 00:33:31.980

dass er st├Ąndig hoch muss aufs Dach, also arbeiten in der H├Âhe. Das ist ja auch

00:33:31.980 –> 00:33:38.980

einer der h├Ąufigsten Gr├╝nde f├╝r t├Âdliche Unf├Ąlle, und sind dann mit der

00:33:38.980 –> 00:33:44.220

Technik der Drohne vorangeschritten, dass wir Drohnen einsetzen mit Kameras,

00:33:44.220 –> 00:33:50.460

um dann zu schauen, welche F├Ąlle gibt es auf D├Ąchern. Wo ist da vielleicht ein

00:33:50.460 –> 00:33:55.820

Leck oder irgendetwas, das nicht st├Ąndig hochgekraxelt werden muss. In den

00:33:55.820 –> 00:34:01.420

produzierenden Betrieben sind auch viele andere automatisierte Prozesse anstelle

00:34:01.420 –> 00:34:07.740

von Menschen, einfach aus der Situation heraus, dass die Arbeitspl├Ątze

00:34:07.740 –> 00:34:10.780

ergonomischer gestaltet werden sollen. Gar nicht mal, weil man sagt, na ja, wir

00:34:10.780 –> 00:34:16.740

wollen es jetzt nur im Hinblick auf die Wirtschaftlichkeit, sondern dass auch der

00:34:16.740 –> 00:34:20.980

Mitarbeiter entlastet wird. Weil es muss ja hinter der Maschine immer noch jemand

00:34:20.980 –> 00:34:28.900

sein, der die Maschine bedient, der sie wartet, der sie am Laufen h├Ąlt oder

00:34:28.900 –> 00:34:33.500

f├╝ttert oder was auch immer. Und von daher ist es eine ziemliche

00:34:33.500 –> 00:34:37.460

Gratwanderung. Also ich unterst├╝tze es aus Sicht der Arbeitssicherheit, dass es

00:34:37.460 –> 00:34:42.620

automatisiert wird. Aus Sicht eines Datenschutzbeauftragten gibt es da immer

00:34:42.620 –> 00:34:51.500

wieder Haken, die uns hindern. Die DSGVO ist eigentlich eine massive Bremse, aber

00:34:51.500 –> 00:34:57.260

ihr hattet vorhin dar├╝ber gesprochen, Daten sammeln. Das Problem ist nicht nur

00:34:57.260 –> 00:35:01.760

die Sammlung der Daten, sondern die Auswertung der Daten. Was wollen wir da

00:35:01.760 –> 00:35:05.660

rausziehen und wer soll es denn machen? Ich sehe es ja auch immer wieder, dass

00:35:05.660 –> 00:35:10.340

wir unheimlich viele Daten sammeln in der Arbeitswelt in Bezug auf Pr├Ąvention.

00:35:10.340 –> 00:35:14.060

Das hei├čt also, ich sammle alle m├Âglichen Informationen ├╝ber gef├Ąhrliche

00:35:14.060 –> 00:35:17.860

Situationen, ├╝ber Beinaheunf├Ąlle, ├╝ber Erste-Hilfe-F├Ąlle und so weiter.

00:35:17.860 –> 00:35:21.500

Ich habe da manchmal, je nach Gr├Â├če des Betriebes, da echt wahnsinnig viele

00:35:21.500 –> 00:35:24.620

Meldungen vorliegen und da muss auch erst mal sortiert werden, was ist

00:35:24.620 –> 00:35:29.780

Was ist auch wirklich eine Meldung, die beachtet werden muss?

00:35:29.780 –> 00:35:30.980

Und was machen wir dann damit?

00:35:30.980 –> 00:35:37.460

Also auf der Seite, das kann keine k├╝nstliche Intelligenz meines Erachtens im Moment auswerten,

00:35:37.460 –> 00:35:39.300

weil das einfach viel zu komplex ist.

00:35:39.300 –> 00:35:44.180

Und da haben wir, wie Marc auch schon sagt, ein Auge darauf zu werfen,

00:35:44.180 –> 00:35:48.780

dass wir nicht alles automatisieren, weil der Mensch braucht eine gute Bildung.

00:35:48.780 –> 00:35:53.260

Schulbildung ist ja in Deutschland nicht unbedingt ausgerichtet auf die wirklich

00:35:53.260 –> 00:35:54.220

effektive Arbeitswelt.

00:35:54.220 –> 00:36:02.580

Und von daher, wenn ich das so betrachte, was wir auch im Alltagsleben haben, es sind so viele Baustellen im Moment.

00:36:02.580 –> 00:36:08.100

Also ich aus der Sicht sehe es auch immer ein Riesenproblem, wo wollen wir denn ansetzen?

00:36:08.100 –> 00:36:19.620

Wer soll sich wo der Sache annehmen, damit diese Automatisierung, die Datensammlung, Auswertung und dann halt die Verwertung auch wirklich effektiv in die Arbeitswelt umgesetzt wird?

00:36:19.620 –> 00:36:23.420

Im Moment sehe ich nur, dass wahnsinnig viel auf den Markt geschmissen wird, dass wahnsinnig

00:36:23.420 –> 00:36:24.940

viel probiert wird.

00:36:24.940 –> 00:36:29.180

Aber der Effekt ist meines Erachtens nur sehr, sehr minimal gesehen.

00:36:29.180 –> 00:36:32.660

In dem Bereich, wo ich das jetzt gemacht habe, sehe ich schon einen guten Effekt.

00:36:32.660 –> 00:36:38.580

Auch in der Medizin, was da schon kam, dass querschnittsgel├Ąhmte Menschen wieder sich

00:36:38.580 –> 00:36:41.140

bewegen k├Ânnen oder generell erst mal sich bewegen k├Ânnen.

00:36:41.140 –> 00:36:45.380

Aber ansonsten in der breiten Masse, da sind wir noch weit, weit entfernt und in den Kindern

00:36:45.380 –> 00:36:46.380

schon.

00:36:46.380 –> 00:36:52.580

Naja, also da ist mein erster Impuls, die mal die Frage zu stellen, ob das nicht eher

00:36:52.580 –> 00:36:57.180

in Anf├╝hrungsstrichen ein deutsches Problem ist, was du gerade beschreibst, weil andere

00:36:57.180 –> 00:37:02.700

L├Ąnder schaffen es ja auch und andere Unternehmen schaffen es ja auch, insbesondere im angloamerikanischen

00:37:02.700 –> 00:37:06.980

Raum, nicht nur Daten einzusammeln, sondern auch genau zu wissen, was sie mit den Daten

00:37:06.980 –> 00:37:10.460

machen und wie sie sie auch einsetzen und auch in die Auswertung gehen.

00:37:10.460 –> 00:37:15.740

Das hei├čt ganz offensichtlich, wenn hier Probleme bestehen, dann sind eben entweder

00:37:15.740 –> 00:37:20.140

nicht die richtigen Ressourcen an der Stelle eingestellt, um mit diesen Daten eben auch

00:37:20.140 –> 00:37:25.740

in die Auswertung entsprechend umzugehen, entsprechende Tools daf├╝r zu nutzen und auch

00:37:25.740 –> 00:37:31.740

das dann eben wieder auch in die KI sozusagen einzupflegen, um damit dann auch wieder zu

00:37:31.740 –> 00:37:32.740

arbeiten.

00:37:32.740 –> 00:37:36.100

Aber das sind jetzt ganz klassische Dinge, die du beschrieben hast, die in anderen Unternehmen

00:37:36.100 –> 00:37:38.620

und in anderen L├Ąndern offensichtlich funktionieren.

00:37:38.620 –> 00:37:41.460

Deswegen sind sie uns ja auch meilen voraus.

00:37:41.460 –> 00:37:45.460

Deswegen sagte ich ja auch, die DSGVO ist im Grunde genommen unsere riesige Bremse.

00:37:45.460 –> 00:37:48.940

Also ich sehe das auch so, dass Deutschland dieses Problem hat.

00:37:48.940 –> 00:37:52.420

Ich betreue ja nun mal auch internationale Unternehmen, da l├Ąuft das ganz anders.

00:37:52.420 –> 00:37:58.620

Also ja, deswegen sage ich ja, wir, nicht global gesehen, sondern wir hier in Deutschland

00:37:58.620 –> 00:37:59.620

haben dieses Problem.

00:37:59.620 –> 00:38:01.260

Wir sind absolut in den Kindern schon.

00:38:01.260 –> 00:38:03.500

Wir sind so was von r├╝ckst├Ąndig, was das betrifft, ohnegleichen.

00:38:03.500 –> 00:38:08.060

Ja und das macht eben diese Problematik halt auch nochmal deutlich.

00:38:08.060 –> 00:38:13.060

Also auf der einen Seite gibt es nat├╝rlich die ganz Gro├čen, die schon recht weit voraus sind.

00:38:13.060 –> 00:38:18.560

Und auf der anderen Seite gibt es auch viele Unternehmen, die auch im Ausland vielleicht noch relativ frisch dabei sind.

00:38:18.560 –> 00:38:23.060

Aber hier hinken wir an vielen Stellen, egal wo wir im Vergleich gucken, total hinterher.

00:38:23.060 –> 00:38:30.060

Und je l├Ąnger es tats├Ąchlich braucht, diese Diskussionen auch zu f├╝hren und hier auch in Aktion zu kommen,

00:38:30.060 –> 00:38:35.060

desto gr├Â├čer wird dieses Gap. Und das darf man auch nicht untersch├Ątzen an dieser Stelle.

00:38:35.060 –> 00:38:39.460

Und dann eben nochmal diesen Aspekt, den auch J├╝rgen nochmal mit der Bildung aufgegriffen hat.

00:38:39.460 –> 00:38:43.180

Wir kommen ja immer wieder auf dieses Bildungsthema zu sprechen.

00:38:43.180 –> 00:38:48.820

Ja, also es ist eine es ist eine politische Aufgabe mitunter,

00:38:48.820 –> 00:38:53.740

dieses Bildungssystem sich auch anzuschauen und hier auch aktiv zu werden.

00:38:53.740 –> 00:38:55.980

Das ist es in der Vergangenheit schon gewesen.

00:38:55.980 –> 00:38:59.300

Es wird das jetzt und in Zukunft noch viel mehr werden.

00:38:59.300 –> 00:39:04.380

Und hier passiert einfach auch einfach viel zu wenig, in Anf├╝hrungsstrichen,

00:39:04.380 –> 00:39:07.460

oder viel zu langsam, sagen wir es mal so, aber auch zu wenig,

00:39:07.460 –> 00:39:11.260

weil Digitalisierung hei├čt h├Ąufig auch, das ist die Beobachtung,

00:39:11.260 –> 00:39:14.540

die man machen kann, dass dann irgendwelche iPads bestellt werden,

00:39:14.540 –> 00:39:16.500

die vielleicht sogar noch nicht mal bedient werden k├Ânnen,

00:39:16.500 –> 00:39:18.580

weil kein Internetzugang da ist oder so.

00:39:18.580 –> 00:39:21.140

Also wenn man da mal an die Schulen guckt, das ist wirklich

00:39:21.140 –> 00:39:25.140

ja, da werden einem die Haare grau an der Stelle, weil

00:39:25.140 –> 00:39:29.140

abgesehen davon, dass hier vielleicht auch Lehrer begleitet werden m├╝ssten

00:39:29.140 –> 00:39:32.860

und so weiter und so fort, scheitert es ja schon an rudiment├Ąren Dingen,

00:39:32.860 –> 00:39:37.380

wie das hat man ja sehr stark jetzt auch zu Corona zum Start von Corona gesehen,

00:39:37.380 –> 00:39:41.860

dass es eben an den Schulen teilweise noch nicht mal Internetzugang gibt,

00:39:41.860 –> 00:39:45.820

sodass die Endger├Ąte dann da waren, nachdem sie bestellt wurden,

00:39:45.820 –> 00:39:48.380

aber trotzdem nicht eingesetzt und genutzt werden konnten.

00:39:48.380 –> 00:39:51.060

Also das sind ja ganz spannende Ph├Ąnomene in diesem Zusammenhang.

00:39:51.060 –> 00:39:54.660

Und ich glaube, J├╝rgen, du wolltest noch was anschlie├čen,

00:39:54.660 –> 00:39:55.780

wenn ich das richtig gesehen habe.

00:39:55.780 –> 00:39:58.020

Marc, wenn du dann auch noch was sagen m├Âchtest, gerne.

00:39:58.020 –> 00:40:02.100

Ja, erstmal herzlichen Dank, liebe Susanne, f├╝r deine Ausf├╝hrungen.

00:40:02.100 –> 00:40:06.100

hat mich noch auf einen weiteren Punkt gebracht und bitte seht es mir nah,

00:40:06.100 –> 00:40:10.900

dass ich dieses Zelt jetzt noch weiter aufspanne, und zwar in der Verbindung

00:40:10.900 –> 00:40:16.460

Automatisierung, Arbeits- und Ausbildungswelt. Die Meta-Ebene f├╝r mich, ich sprach das bei

00:40:16.460 –> 00:40:24.580

dem Raum der k├╝nstlichen Intelligenz und unsere zuk├╝nftige Gestaltung all dessen,

00:40:24.580 –> 00:40:29.500

was uns umgibt, schon an, die l├Ąuft f├╝r mich unter der grunds├Ątzlichen Frage,

00:40:29.500 –> 00:40:32.500

Alles, was wir tun, wollen wir das ├╝berhaupt?

00:40:32.500 –> 00:40:37.140

Und eine wesentliche Krux, liebe Susanne, hast du aufgezeigt,

00:40:37.140 –> 00:40:40.820

dieses Wir, das Problem ist im Verbund mit dieser innovativen

00:40:40.820 –> 00:40:46.060

Technologie sicherlich das Thema Wir, weil wir entscheiden,

00:40:46.060 –> 00:40:51.300

wenn wir entscheiden alleine als Deutschland oder auch als EU und

00:40:51.300 –> 00:40:56.980

gegen einen in Anf├╝hrungsstrichen technologischen Mainstream agieren

00:40:56.980 –> 00:41:01.980

durch entsprechende Reglementierungen, dann wollen wir,

00:41:01.980 –> 00:41:06.300

ich provoziere jetzt mal bewusst, dann wollen wir auf einen

00:41:06.300 –> 00:41:11.180

potenziellen Vorteil zuk├╝nftiger Ausgestaltung einer modernen

00:41:11.180 –> 00:41:13.180

Arbeitswelt verzichten.

00:41:13.180 –> 00:41:16.700

Diese Frage ist f├╝r mich urs├Ąchlich.

00:41:16.700 –> 00:41:18.700

Was wollen wir denn ├╝berhaupt?

00:41:18.700 –> 00:41:25.220

Und insofern w├Ąre f├╝r mich diese Kette, diese begriffliche Kette

00:41:25.220 –> 00:41:29.980

die eigentliche Kette der substantiven Automatisierung Arbeitswelt,

00:41:29.980 –> 00:41:34.860

Ausbildungswelt noch zu erg├Ąnzen, im Grunde genommen durch Sinnwelt.

00:41:34.860 –> 00:41:39.460

Was ist eigentlich der Sinn zuk├╝nftig des Lebens, was uns ja

00:41:39.460 –> 00:41:43.780

insbesondere durch die Generationendiskussion in letzter

00:41:43.780 –> 00:41:49.380

Zeit immer wieder vor Augen gef├╝hrt wird, dass es da Bestrebungen gibt,

00:41:49.380 –> 00:41:54.020

auch nicht nur zuletzt, nicht nur in Bezug auf die Arbeit,

00:41:54.020 –> 00:41:59.140

Arbeit, sondern auch auf die Redundanzgr├Â├če einen ganz anderen

00:41:59.140 –> 00:42:04.140

Sinn zu geben, als wir das oder als ich das noch erlebt habe.

00:42:04.140 –> 00:42:06.620

Ich will da nicht f├╝r alle sprechen.

00:42:06.620 –> 00:42:11.460

Wir sind ├Âkonomisch gesehen in den letzten Jahrhunderten, zwei bis drei

00:42:11.460 –> 00:42:16.220

Jahrhunderten ├╝ber die industrielle Revolutionen immer in eine h├Âhere

00:42:16.220 –> 00:42:19.740

Stufe der ├Âkonomischen Nutzenfunktion gekommen.

00:42:19.740 –> 00:42:25.460

Das hei├čt, wir haben eine Erweiterung der Lebenserwartung, wir haben einen h├Âheren

00:42:25.460 –> 00:42:31.620

Gesundheitsstatus, wir haben einen h├Âheren Bildungsstatus. Unser Weg ging immer nach oben

00:42:31.620 –> 00:42:39.020

und unsere Gesellschaft hat sich ver├Ąndert von einer Bedarfsdeckungsgesellschaft in eine

00:42:39.020 –> 00:42:47.540

eher Bedarfserweckungsgesellschaft. Nach dem Motto, ich habe zwar ein iPhone, aber wenn das n├Ąchste

00:42:47.540 –> 00:42:49.540

dann muss ich das auch haben.

00:42:49.540 –> 00:42:52.940

Sorry, ich schweige jetzt wahrscheinlich ab.

00:42:52.940 –> 00:42:58.820

Aber im Grunde genommen noch mal, dieses Riesenthema hat f├╝r mich

00:42:58.820 –> 00:43:03.420

auch immer sinnlegend, den Aspekt zu hinterfragen,

00:43:03.420 –> 00:43:08.060

wohin soll denn eigentlich dieser Weg gehen und will ich das?

00:43:08.060 –> 00:43:10.060

Vielen Dank f├╝rs Zuh├Âren.

00:43:10.060 –> 00:43:13.900

Lass mich da gerne noch mal ganz provokant zur├╝ckfragen.

00:43:13.900 –> 00:43:16.780

Aus meiner Sicht stellt sich vielleicht gar nicht die Frage,

00:43:16.780 –> 00:43:23.580

wollen wir das ├╝berhaupt, sondern haben wir ├╝berhaupt den Luxus, dar├╝ber nachzudenken,

00:43:23.580 –> 00:43:25.100

ob wir das wollen oder nicht wollen?

00:43:25.100 –> 00:43:30.700

Also sind wir hier nicht vielleicht sogar in einem Zugzwang sozusagen und haben gar

00:43:30.700 –> 00:43:31.700

nicht den Luxus?

00:43:31.700 –> 00:43:34.140

Und ich m├Âchte ganz konkret gerne ein Beispiel dazu aufmachen.

00:43:34.140 –> 00:43:38.100

Wir haben es ja gerade in der Elektromobilit├Ąt auch erlebt.

00:43:38.100 –> 00:43:44.140

Ja, da haben sich eben verschiedene deutsche Unternehmen dagegen wirklich verwehrt und

00:43:44.140 –> 00:43:49.420

geweigert und das hat eher dazu gef├╝hrt, dass wir jetzt heute ein Problem dadurch

00:43:49.420 –> 00:43:55.080

bekommen haben und weit zur├╝ckgeworfen sind an der Stelle mit unseren

00:43:55.080 –> 00:44:01.220

Entwicklungen, w├Ąhrend andere L├Ąnder uns zigmal ├╝berholt haben, was die Entwicklungen

00:44:01.220 –> 00:44:05.860

in der Elektromobilit├Ąt beispielsweise anbetrifft. Und wir sprechen ja heute

00:44:05.860 –> 00:44:09.160

nicht ├╝ber Elektromobilit├Ąt. Ich wollte es jetzt nur mal als Beispiel reinbringen.

00:44:09.160 –> 00:44:13.680

Aber ich sehe durchaus die Gefahr, dass wenn wir hier eben auf dem gleichen Pferd

00:44:13.780 –> 00:44:17.780

sozusagen uns die Frage zu stellen, wollen wir das ├╝berhaupt?

00:44:17.780 –> 00:44:21.780

Damit wir uns die Frage stellen k├Ânnen, wollen wir das ├╝berhaupt,

00:44:21.780 –> 00:44:25.780

m├╝ssten alle L├Ąnder global gesehen an einem Strang ziehen.

00:44:25.780 –> 00:44:29.780

Und das tun sie aber nicht. Und in dem Moment, wo sie das nicht tun,

00:44:29.780 –> 00:44:33.780

also das w├Ąre die Voraussetzung aus meiner Sicht, um sich so eine Frage stellen zu k├Ânnen,

00:44:33.780 –> 00:44:37.780

wenn sie das nicht tun, dann stellt sich mir die Frage,

00:44:37.780 –> 00:44:41.780

ist das nicht ein Luxus, was wir hier diskutieren? Und diese Frage

00:44:41.780 –> 00:44:44.420

d├╝rften wir uns an der Stelle so gar nicht erlauben.

00:44:44.420 –> 00:44:46.420

J├╝rgen?

00:44:46.420 –> 00:44:49.940

Ja, ich merke, vielleicht ist auch ein versteckter

00:44:49.940 –> 00:44:54.340

Wink mit dem Zaunpaar, liebe Yasemin, dass ich zu lange geredet habe.

00:44:54.340 –> 00:44:56.340

N├Ąmlich das war

00:44:56.340 –> 00:45:02.300

mein Hintergrund zu dieser exponierten Aussage, dieses Wir,

00:45:02.300 –> 00:45:10.020

was Susanne ja auch angef├╝hrt hat, dieser Punkt, dass wir uns nur

00:45:10.020 –> 00:45:14.020

Und wir k├Ânnen uns nat├╝rlich ausklinken, liebe Yasemin.

00:45:14.020 –> 00:45:18.020

Nat├╝rlich k├Ânnen wir sagen, wir deindustrialisieren,

00:45:18.020 –> 00:45:23.020

was ja derzeit einige politische Str├Âmungen so vehement vorantreiben.

00:45:23.020 –> 00:45:26.020

Nur, man muss mit den Konsequenzen leben.

00:45:26.020 –> 00:45:28.020

Man kann alles tun.

00:45:28.020 –> 00:45:31.020

Man muss nur immer mit den Konsequenzen tun.

00:45:31.020 –> 00:45:36.020

Und das ist f├╝r mich das Ergebnis des kognitiven Prozesses.

00:45:36.020 –> 00:45:37.020

Was will ich denn?

00:45:37.020 –> 00:45:42.020

Denn, n├Ąmlich eine Entscheidung zu treffen, nachdem ich abgewogen

00:45:42.020 –> 00:45:47.020

habe, welche Konsequenzen diese Entscheidung f├╝r sich mittr├Ągt.

00:45:47.020 –> 00:45:51.020

Und vollkommen richtig, ich bringe das auf den Punkt,

00:45:51.020 –> 00:45:55.020

hoffentlich, es gibt einen treffenden Spruch daf├╝r,

00:45:55.020 –> 00:46:00.020

das K├Ânnen ist des D├╝rfens Ma├č. Und das D├╝rfen ist in dem Umfeld

00:46:00.020 –> 00:46:05.020

eben unser Status, nicht nur ├Âkonomisch, sondern auch politisch

00:46:05.020 –> 00:46:11.140

politisch und gesellschaftlich, dass wir mittlerweile nicht mehr als einzelnes Land agieren k├Ânnen,

00:46:11.140 –> 00:46:17.380

sondern darauf angewiesen sind, auch und in zunehmendem Ma├če ├╝ber den Tellerrand zu schauen

00:46:17.380 –> 00:46:21.540

und zu schauen, was passiert da eigentlich um uns herum.

00:46:21.540 –> 00:46:28.060

Ja, absolut. Da bin ich absolut bei dir. Und wenn man dann tats├Ąchlich sagen w├╝rde,

00:46:28.060 –> 00:46:32.540

wir sind bereit, diesen Preis daf├╝r zu zahlen in der Konsequenz, dann w├╝rden sich ja nat├╝rlich

00:46:32.540 –> 00:46:36.460

ganz viele Dinge ableiten, so was wie, wie m├╝ssten eben unsere Menschen

00:46:36.460 –> 00:46:41.860

ausgebildet sein im Land, wof├╝r m├╝ssten wir Sorge tragen, auch Bildungskontext ist

00:46:41.860 –> 00:46:47.660

hier ein relevanter Aspekt und so weiter. Dann d├╝rfen wir unabh├Ąngig davon, ob wir

00:46:47.660 –> 00:46:52.540

das wollen oder nicht wollen, durch die Ver├Ąnderungen, die jetzt stattfinden,

00:46:52.540 –> 00:46:58.180

wird ja eins mal ganz massiv deutlich, dass es eben nicht nur um Erstausbildungen

00:46:58.180 –> 00:47:03.580

oder ├Ąhnliches geht, sondern es wird zunehmend auch in Richtung, gerade wenn wir auf die Arbeitswelt

00:47:03.580 –> 00:47:07.980

schauen, auch so was wie Umschulungen gehen. Also wie m├╝ssen denn jetzt hier auch Menschen

00:47:07.980 –> 00:47:15.020

beispielsweise begleitet werden, um eben zukunftstr├Ąchtige Skills, ├╝bergeordnete Skills

00:47:15.020 –> 00:47:21.700

auch erwerben und erlernen zu k├Ânnen und dass es eben nicht mehr die klassische Erstausbildung ist,

00:47:21.700 –> 00:47:26.060

die hier ausreicht, sondern hier diese Ver├Ąnderungen auch in Unternehmen gleichzeitig

00:47:26.060 –> 00:47:30.980

auch zu begleiten, in welchem Ausma├če dann die Auspr├Ągung ist, entscheidet sich ja dann

00:47:30.980 –> 00:47:35.980

damit einhergehend auch, wof├╝r sich zum Beispiel ein Deutschland auch entscheidet an der Stelle.

00:47:35.980 –> 00:47:37.540

Marc, du wolltest auch nochmal anschlie├čen.

00:47:37.540 –> 00:47:41.940

Ja unbedingt. Und zwar m├Âchte ich nochmal ankn├╝pfen an “Wollen wir das?” Da geben sich

00:47:41.940 –> 00:47:47.380

so viele Fragen. Wollen wir das? Wer entscheidet das? Was sind die Konsequenzen? Und was k├Ânnten

00:47:47.380 –> 00:47:52.140

die Alternativen sein? Und dann eine Frage, wie finanzieren wir das? Und ich denke, dass

00:47:52.140 –> 00:47:55.900

kein Mensch von uns im Raum b├Âse w├Ąre, wenn man sagt, du musst jetzt weniger arbeiten,

00:47:55.900 –> 00:47:59.260

hast also viel viel mehr Freizeit, du musst dir aber keine Sorgen machen, dass

00:47:59.260 –> 00:48:02.140

dein Leben und unser Wohlstand trotzdem gesichert ist. Und ich bin jetzt

00:48:02.140 –> 00:48:05.140

bestimmt kein Anh├Ąnger von Kommunismus, aber trotzdem, das sind auch

00:48:05.140 –> 00:48:07.940

philosophische Fragen, wenn ein Unternehmen zum Beispiel durch

00:48:07.940 –> 00:48:12.580

Automatisierung seinen Gewinn verzehnfacht und die M├Âglichkeit h├Ątte,

00:48:12.580 –> 00:48:16.580

dann auch zehnmal so viele Mitarbeiter zu entlassen, wie es braucht, dann muss man

00:48:16.580 –> 00:48:19.980

einfach auch juristisch dar├╝ber nachdenken und sprechen d├╝rfen, hat der

00:48:19.980 –> 00:48:24.220

Unternehmer dann auch die Verantwortung, dass das Geld, was da verdient wird, in die

00:48:24.220 –> 00:48:28.140

Gesellschaft zur├╝ckflie├čt, ja oder nein? Wenn man den Unternehmer fragt und mich

00:48:28.140 –> 00:48:30.780

fragen w├╝rde, sage ich nat├╝rlich nein. Warum soll ich Gewinne, die ich

00:48:30.780 –> 00:48:34.300

erwirtschafte, zur├╝ckflie├čen lassen? Das ist dann aber wiederum

00:48:34.300 –> 00:48:38.020

Aufgabe der Politik und da sieht man, wie komplex das ganze Thema ist. Aber

00:48:38.020 –> 00:48:41.100

grunds├Ątzlich muss uns bewusst werden und das hast du, glaube ich, hast mir auch

00:48:41.100 –> 00:48:44.740

angesprochen, wollen wir das? Haben wir ├╝berhaupt den Luxus dar├╝ber mit zu

00:48:44.740 –> 00:48:48.340

entscheiden? Und wenn wir sagen, wir wollen das nicht, muss ich auch hier mal

00:48:48.340 –> 00:48:51.380

hinstellen und sagen, okay lieber J├╝rgen, wir wollen das nicht, wir wollen keinen

00:48:51.380 –> 00:48:54.920

Roboter. Wir verlieren unseren Wohlstand, wir verlieren den Anschluss an die

00:48:54.920 –> 00:48:58.580

Weltwirtschaft. Das bedeutet dann aber auch, dass du kein Geld mehr hast f├╝r Strom und

00:48:58.580 –> 00:49:01.900

wenn der Sinn deines Lebens ist, drau├čen zu sitzen und auf B├Ąume zu gucken und dem

00:49:01.900 –> 00:49:05.060

Wasser zuzuh├Âren, dann machst du das, aber dann frierst du halt und hast halt kein

00:49:05.060 –> 00:49:08.620

Haus mehr und schl├Ąfst in einem Zelt. Du hast dann sehr sinnvolles Leben, aber

00:49:08.620 –> 00:49:12.580

eben kein Luxus- und Wohlstandsleben mehr. Und das sind halt ganz, ganz, ja,

00:49:12.580 –> 00:49:17.180

Diskussionen, die wir uns da stellen m├╝ssen und vor allen Dingen, die d├╝rfen

00:49:17.180 –> 00:49:20.380

Unternehmer nicht alleine entscheiden, sondern da ist die ganze Gesellschaft

00:49:20.380 –> 00:49:24.460

gefragt, die damit eingreift und auch aufpasst, dass es nicht nur auf der Welt

00:49:24.460 –> 00:49:28.380

wei├č ich nicht 100 oder 200 reiche Menschen gibt und der Rest nur noch arm ist.

00:49:28.380 –> 00:49:34.900

Ja absolut und viele dieser Systeme von denen wir sprechen und das wird auch in

00:49:34.900 –> 00:49:40.580

den n├Ąchsten Tagen noch mal st├Ąrker deutlich werden, die funktionieren eben

00:49:40.580 –> 00:49:44.260

auch mit zum Beispiel so Zentralisierungsgedanken und so weiter.

00:49:44.260 –> 00:49:47.300

Also da werden wir auch noch alles mit aufgreifen in den n├Ąchsten Tagen und

00:49:47.300 –> 00:49:51.800

Wochen. Und dann w├Ąre nat├╝rlich auch eine folgerichtige ├ťberlegung, ob wir

00:49:51.800 –> 00:49:56.180

nicht wieder viel st├Ąrker eben auch in diese Dezentralisierung reingehen m├╝ssen,

00:49:56.180 –> 00:50:02.000

also weg von dieser Globalisierung hin zur dezentralen und dann auch eben

00:50:02.000 –> 00:50:07.560

innerhalb von Deutschland beispielsweise oder innerhalb von Europa, also die

00:50:07.560 –> 00:50:12.320

verschiedene Dinge wieder zur├╝ckzuholen, die wir vorher ausgelagert haben. Also

00:50:12.320 –> 00:50:16.360

all das sind ja Themen tats├Ąchlich, die jetzt hier auch eine

00:50:16.360 –> 00:50:21.440

Relevanz haben, bis hin zu, wenn man eben jetzt gerade auch so Entwicklungen mitbekommt,

00:50:21.440 –> 00:50:31.760

dass ein Unternehmen zum Beispiel hier ├╝berlegt, das Unternehmen nach au├čen zu verkaufen, also

00:50:31.760 –> 00:50:38.200

nicht verlagern, sondern zu verkaufen und damit dann zum Beispiel die Qualit├Ąten, die hier in

00:50:38.200 –> 00:50:43.720

Deutschland, also gerade in Bereichen, wo wir heute noch weit vorne sind, dadurch eben auch

00:50:43.720 –> 00:50:47.080

wieder zur├╝ckfallen w├╝rden. Da gibt es auch viele Vergleiche in den letzten

00:50:47.080 –> 00:50:51.200

Jahren, wo wir als Deutschland sozusagen in bestimmten Bereichen als Vorreiter

00:50:51.200 –> 00:50:56.400

unterwegs waren, einfach weil wir ├╝ber dieses Know-how verf├╝gt haben und durch

00:50:56.400 –> 00:51:00.240

dann den Verkauf von Unternehmen oder ├ťbernahmen von Unternehmen aus dem

00:51:00.240 –> 00:51:04.480

Ausland das dazu beigetragen hat letztendlich, dass dieses Know-how eben

00:51:04.480 –> 00:51:07.200

auch nicht mehr bei uns liegt und dementsprechend wir es wieder f├╝r teuer

00:51:07.200 –> 00:51:12.200

von au├čen einkaufen, was auch wieder eine Kettenreaktion ausl├Âst. Das ist das

00:51:12.200 –> 00:51:15.160

Das eine und das andere, was wir letztens schon mal angesprochen hatten, auch das ist

00:51:15.160 –> 00:51:22.680

ja hier in dem Zusammenhang wieder relevant, ist dieser Aspekt, dass wir, jetzt habe ich

00:51:22.680 –> 00:51:26.120

den Faden verloren, wurscht, wie auch immer, ihr wollt vielleicht auch noch was anschlie├čen

00:51:26.120 –> 00:51:30.760

und dann haben wir ja schon gleich Zeit, vielleicht f├Ąllt es mir ein, wieder bis zur Abschlussrunde.

00:51:30.760 –> 00:51:34.680

Mark, J├╝rgen, Susanne, wenn ihr noch gerne was anschlie├čen wollt, gerne.

00:51:34.680 –> 00:51:36.400

Mark, habe ich gesehen, ja.

00:51:36.400 –> 00:51:40.080

Und dann k├Ânnen wir auch langsam schon in die Abschlussrunde f├╝r heute ├╝bergehen, weil

00:51:40.080 –> 00:51:44.040

gesehen, wir haben nur noch acht Minuten. Die Zeit, die verfliegt Wahnsinn, ist das,

00:51:44.040 –> 00:51:46.720

wie schnell das geht bei diesen hochkomplexen Themen. Marc?

00:51:46.720 –> 00:51:52.800

Ja, mein Abschlusswort w├Ąre dann auch, ich verlasse diesen Raum, wie so oft, mit mehr

00:51:52.800 –> 00:51:57.640

Fragen als Antworten, bin aber zuversichtlich und solange wir in den Diskurs gehen, stelle

00:51:57.640 –> 00:52:01.600

ich immer wieder fest, dass es pl├Âtzlich immer wieder sich neue T├╝ren ├Âffnen. Danke

00:52:01.600 –> 00:52:06.400

f├╝r den Raum heute und ich w├╝nsche euch allen einen ganz tollen Start in den Montag

00:52:06.400 –> 00:52:07.400

und die Woche.

00:52:07.400 –> 00:52:11.400

Okay, das war dann gleichzeitig auch dein Abschlusswort sozusagen.

00:52:11.400 –> 00:52:13.400

Dann k├Ânnen wir ja in der Reihenfolge vielleicht auch weitermachen.

00:52:13.400 –> 00:52:18.400

J├╝rgen und Susanne, was waren denn so die Sachen, die ihr vielleicht nochmal highlighten wollt?

00:52:18.400 –> 00:52:21.400

Oder welche Fragezeichen sind bei euch aufgekommen?

00:52:21.400 –> 00:52:24.400

Was nehmt ihr mit aus dem Raum heute, J├╝rgen und Susanne?

00:52:24.400 –> 00:52:31.400

Ja, f├╝r mich wie immer meinen herzlichen Dank f├╝r alle Beitr├Ąge, die geleistet wurden,

00:52:31.400 –> 00:52:34.400

f├╝r deine Moderation, das muss immer sein.

00:52:34.400 –> 00:52:37.840

Und das mache ich auch gerne.

00:52:37.840 –> 00:52:45.360

Und es hat mal wieder gezeigt, dass auch f├╝r diesen Raum,

00:52:45.360 –> 00:52:49.280

f├╝r diese Themen, die du aufmachst, liebe Yasemin, dankenswerterweise,

00:52:49.280 –> 00:52:53.280

ein ganz wesentliches Problem immer die Komplexit├Ąt ist.

00:52:53.280 –> 00:52:57.160

Und ich nehme auch hier wiederum mit aus einem Teilbereich,

00:52:57.160 –> 00:53:04.360

in dem ich mich eigentlich ├╝ber Jahre hinweg aufgehalten habe,

00:53:04.360 –> 00:53:07.480

dass ich neue Impulse mitnehme.

00:53:07.480 –> 00:53:13.400

Daf├╝r danke ich euch und ich freue mich auf die n├Ąchsten

00:53:13.400 –> 00:53:19.600

auf die n├Ąchsten Stages, die wir haben werden und hoffe

00:53:19.600 –> 00:53:25.040

und davon gehe ich aus, dass du, Yasemin, die F├Ąden dieses

00:53:25.040 –> 00:53:31.840

Gesamtsinn Zusammenhangs auch immer so wohlfeil in der Zukunft f├╝hren wirst,

00:53:31.840 –> 00:53:36.000

weil das ist wirklich eine Herausforderung. Vielen Dank.

00:53:36.000 –> 00:53:40.800

Ja, vielen, vielen lieben Dank und ich f├╝rchte, die Komplexit├Ąt wird auch nicht abnehmen,

00:53:40.800 –> 00:53:44.520

sondern tendenziell eher zunehmen, weil wir ja dann auch mit den unterschiedlichen

00:53:44.520 –> 00:53:50.000

Tagesraumthemen sozusagen dann auch noch weitere Baustellen, so nenne ich es jetzt,

00:53:50.000 –> 00:53:55.000

einfach mal aufmachen. Das hei├čt, wir gucken uns zum Beispiel morgen ja dann die Blockchain-Technologie

00:53:55.000 –> 00:54:01.480

an. Das ist dann wieder eine weitere Technologie und das ist das Spannende, sich das Ganze

00:54:01.480 –> 00:54:06.120

in diesem Zusammenspiel auch anzuschauen. Und dann bin ich sehr, sehr gespannt, welche

00:54:06.120 –> 00:54:12.040

Diskussionen am Ende, welche Erkenntnisse und auch unter dem Gesichtspunkt, naja, wir

00:54:12.040 –> 00:54:16.080

k├Ânnen es nat├╝rlich auf gesellschaftlicher Ebene diskutieren und so weiter. Die Frage

00:54:16.080 –> 00:54:21.800

ist ja aber auch, worauf habe ich denn pers├Ânlich ├╝berhaupt einen Einfluss und in welchem Bereich

00:54:21.800 –> 00:54:25.240

Bewege ich mich denn dann? Und das wird auch noch mal eine spannende Fragestellung, mit

00:54:25.240 –> 00:54:28.840

der wir uns dann besch├Ąftigen werden. Und insofern bin ich sehr, sehr gespannt, wo wir

00:54:28.840 –> 00:54:40.840

dann am Ende bei rauskommen sozusagen. Susanne? Bist du noch bei uns, Susanne? Wir h├Âren

00:54:40.840 –> 00:54:43.720

dich noch nicht. Dein Mikro ist aus, falls du uns h├Âren kannst.

00:54:43.720 –> 00:54:47.640

Ja, sorry, ich habe gerade jemanden in meinem B├╝ro stehen, der was von mir m├Âchte. Ich

00:54:47.640 –> 00:54:50.200

kann jetzt gerade leider nicht antworten.

00:54:50.200 –> 00:54:53.760

Alles klar, ja dann wei├č ich Bescheid. Vielen, vielen lieben Dank.

00:54:53.760 –> 00:54:58.200

Ja, dann lasst uns gerne damit f├╝r heute den Raum abrunden. Ich fand es total

00:54:58.200 –> 00:55:03.920

spannend und morgen, wie gesagt, geht es weiter mit der Blockchain-Technologie. Da

00:55:03.920 –> 00:55:06.320

wollen wir uns dann anschauen, was verbirgt sich denn hinter der

00:55:06.320 –> 00:55:10.960

Blockchain-Technologie und was sind ihre Anwendungsfelder, sowohl in der

00:55:10.960 –> 00:55:14.880

Vergangenheit heute und auch in der Zukunft sozusagen. Also wohin entwickelt

00:55:14.880 –> 00:55:19.240

sich das Ganze und damit haben wir einen weiteren Bereich der Technologie,

00:55:19.240 –> 00:55:24.520

sozusagen, wo es auch massive Entwicklungen gibt und werden jetzt aber

00:55:24.520 –> 00:55:29.240

morgen nicht von der W├Ąhrungsperspektive drauf schauen, sondern wirklich die

00:55:29.240 –> 00:55:34.800

reine Blockchain-Technologie und dar├╝ber sprechen und irgendwann anders haben wir

00:55:34.800 –> 00:55:39.040

auch noch mal einen Raum, wo es dann auch um digitale W├Ąhrungen geht. Also das

00:55:39.040 –> 00:55:42.840

vielleicht noch mal so am Rande schon mal erw├Ąhnt und ich bin total gespannt,

00:55:42.840 –> 00:55:46.920

welche Beispiele ihr morgen dann vielleicht auch mitbringt, mit reinbringt.

00:55:46.920 –> 00:55:50.960

vielleicht kennt ihr ja auch das eine oder andere und dann k├Ânnen wir auch

00:55:50.960 –> 00:55:54.900

wieder verschiedene Aspekte hier wieder aufmachen und auch hier gibt es mit

00:55:54.900 –> 00:55:59.320

Sicherheit ganz viele Themen auch wie Umweltkontexte und so weiter mit

00:55:59.320 –> 00:56:02.920

Klimakontext und so weiter mit zu ber├╝cksichtigen. Also von daher bleiben

00:56:02.920 –> 00:56:07.260

die Diskussionen an der Stelle mit Sicherheit auch spannend und ich bin

00:56:07.260 –> 00:56:11.000

gespannt, welche Erkenntnisse wir dann oder welche Fragezeichen zun├Ąchst wir

00:56:11.000 –> 00:56:13.920

erstmal aus dem Raum morgen mitnehmen werden. In diesem Sinne vielen lieben

00:56:13.920 –> 00:56:18.920

Vielen Dank f├╝rs Mitmachen und hoffentlich bis morgen fr├╝h um 8 wieder hier im Deep Talk.

00:56:18.920 –> 00:56:20.160

Bis dahin. Ciao.

3 Myths Debunked ÔÇô When Science Creates Knowledge! | Dr Yasemin Yazan

When Science Creates Knowledge!

Unfortunately, there is a lot of false knowledge on the market. Be it because, for example, research results are misinterpreted or false causalities are made, or because they are transferred to other contexts that were not even the subject of the study.

We pick 3 myths and show what science already knows:

- Why Maslow's hierarchy of needs is not a reliable basis for motivation

- Why personality tests are questionable as a basis for personnel decisions

- Why a quota is needed as an effective measure against Unconscious Bias

Data Protection Declaration

Declaration Of Consent

Congratulations - your download is waiting for you in your mailbox!