Lektion 17 von25
In Progress

Modul 16: Scanne dich und die Welt

Sirkka 02/09/2021

In Modul 16 zeige ich dir, wie du dich selbst und deine Umwelt scannen kannst, um physisch-reale Objekte in die virtuelle Welt zu kopieren. Auf diese Weise entstehen lebensechte, virtuelle Abbildungen der realen Welt, die auch als “Digital Twin” bezeichnet werden.

Inhaltlich bauen die Türchen aufeinander auf, du kannst aber natürlich auch nur diejenigen öffnen, die du spannend findest. Die Türchen sind grob in folgende Inspirations-Häppchen gegliedert:

INTRO – 🎁 In Modul 1-8 gibt es Smart Learning Info-Nuggets
EXPLORE – 🎁 In Modul 9-18 erkundest du AR und 3D Lernwelten
REMOTE HACKS – 🎁 In Modul 19-24 gibt es Best of Remote Learning Tools

Schön, dass du dabei bist!

Und weil es so viel Spaß macht, geht es noch immer, zumindest indirekt, um den magischen Würfel. Heute zeige ich dir, wie du dich und deine Umwelt scannen kannst. Bei Smart Learning geht es ja um hybride Lernwelten, also um einen fließenden Übergang zwischen digitalen und analogen Lern- und Arbeitswelten.

Ich bin davon überzeugt, dass wir in Zukunft in Zwischenwelten navigieren werden. Die reale Welt wird zunehmend digital überlagert werden. Extended Reality (XR) ist keine Zukunft mehr (vgl. 9. Modul) . Meiner Meinung nach stehen wir an der Schwelle zu einem neuen XR-Massenmarkt bzw. zu einem Metaverse for Learning. Oder wie ich es in früheren Vorträgen bereits zusammengefasst habe:

Physical2Digital & Digital2Physical wird bald zum Standard werden.

Das bedeutet, dass die Grenzen immer stärker verschwimmen werden. Wir werden zukünftig 3D-Modelle digital erstellen, ausdrucken, ggf. erneut einscannen, modifizieren und erneut drucken. Ein fließender Kreislauf entsteht. Sofern das Teilen von digitalen 3D-Welten/ Objekten einfach gelingt (vgl. 15. Modul), werden Veränderungen natürlich direkt am digitalen Objekt vorgenommen, die dann über die Zeit hinweg immer weiter optimiert und verbessert werden können.

Was ist real, was ist virtuell? Auch virtuelle Welten sind “real”, eben nur in einer virtuellen Welt. Und wenn sie im 3D-Drucker gedruckt werden, sind sie in der realen Welt verfügbar.

Wie das ganze z.B. anhand der App “Qlone 3D” funktioniert, siehst du im heutigen Video (3.56 Minuten):

Scanner Apps sind komplex

Was in dem Video so einfach aussieht, ist meiner Erfahrung nach von vielen kleinen Details abhängig, insbesondere von der zugrundeliegenden Technologie und vom jeweiligen Betriebssystem. Die meisten 3D-Scan-Apps basieren auf der Photogrammetrie, bei der mehrere Bilder desselben Objekts aus verschiedenen Winkeln aufgenommen werden, um eine 360°-Ansicht des jeweiligen Objekts zu erhalten. Ein Photogrammetrie-Algorithmus verarbeitet dann die Fotos – in der App selbst oder über einen Cloud-Service – bevor sie zu einem 3D-Modell „zusammengefügt“ und für weitere Aktionen ex-/importiert werden können.

Im Vergleich zu Android gibt es für Apple qualitätiv höherwertige 3D-Scan Möglichkeiten. Leider funktionieren die derzeit hochwertigen AR Features in der Regel nur mit sehr hochwertigen und neuen Endgeräten. Apple stattet seine Devices mit dem ARKit aus, damit sind die neuesten Geräte mit punktgenauer 3D-Scanner-Hard- und Software ausgestattet, so dass sie als wahre XR High-End-Geräte genutzt werden können.

Scanner Apps lassen sich super mit dem MERGE CUBE kombinieren

Wie Scanner Apps in Kombination mit dem Merge Cube genutzt werden können, siehst du heute in meinem zweiten Video (2.42 Minuten):

Im Video kann man sehr gut erkennen, wie die Kunstwerke innerhalb weniger Sekunden/ Minuten über die makerbasierte Unterlage sehr exakt eingescannt/ virtualisiert werden können. Derartige Technologien bieten meiner Meinung nach ein gigantisches Potenzial im Kunst & Kultur Bereich, da Ausstellungstücke [gerade auch in Corona Zeiten] auf eine komplett neue, immersive Art & Weise erlebt und bestaunt werden können.

Wie wäre es, wenn wir weltweit verteilte Kunst zu uns ins Wohnzimmer “holen” könnten? Wenn wir die Mona Lisa oder die 3000 Jahre alte Büste des ägyptischen Pharaos Tutanchamun in der Hand halten könnten? Wie wäre es, wenn ich zum halben Preis die Ausstellung im Museum of Modern Art rein virtuell erleben könnte. Von jedem Ort der Welt. Egal ob ich auf dem Sofa oder ggf. auch in einem Rollstuhl sitze und ein eingeschränktes Leben führen muss.

Theoretisch ist es mit der Photogrammetrie auch möglich, Menschen die bereits verstorben sind, zu virtualisieren, damit zum Leben zu erwecken und zu animieren, sofern genügend Fotos vorhanden sind. Soweit ich weiß, braucht man um die 200 Aufnahmen. Damit wäre es dann möglich, Menschen zum Leben zu erwecken, die bereits verstorben sind……zumindest virtuell. Anhand der aktuell vorhandenen Datenmengen von Fotos pro Person könnte man quasi jeden Menschen auf der Welt automatisiert virtualisieren und nach dem Tod erneut zum Leben erwecken. Oh jeh, ich darf gar nicht weiter darüber nachdenken…..da werden uns zukünftig noch viele ethische Fragen beschäftigen, denn wir sollten wissen, was wir wollen und was auch nicht.

Anfang 2021 habe ich 4 Thesen zur Zukunft des Lernens aufgestellt. Eine davon lautete: “Die Matrix wird kommen” – Wollen wir alle hoffen, dass es nicht so kommt. Das hängt meiner Meinung nach auch stark davon ab, wie wir uns alle einbringen und Verantwortung für die Zukunft übernehmen (oder auch nicht).

Weitere Informationen und Links findest du hier:

Freu` dich auf das nächste Modul:

…..da geht es darum, wie ich mich selbst geklont habe. Wahrscheinlich als erste Frau Deutschlands.