Ingo Blechschmidt
Mathematiker aus Augsburg
Beiträge
Eine Schnupperstunde in Agda, der funktionalen Programmiersprache, mit der man die Korrektheit von Programmcode mathematisch wasserdicht beweisen kann, anstatt auf Tests oder Code-Reviews angewiesen zu sein.
Unsichtbar im Hintergrund kommunizieren und kooperieren viele Computer miteinander, um dir deine heiß ersehnten Katzenvideos zu liefern. In diesem Workshop machen wir diese Kommunikation mit dem Tool Wireshark (verfügbar für alle Betriebssysteme) sichtbar. In mehreren Live-Demos lernen wir, dass die uns bekannten Domainnamen wie tuebix.org nur eine dünne Hülle über den eigentlichen Adressen sind – den IP-Adressen, mit denen sich Computer wirklich identifizieren.
Wir decken auf, welche versteckten Informationen dein Browser bei jeder Anfrage mitsendet, und wir zeigen, wie einfach es ist, Datenverkehr abzufangen.
Dieser Workshop richtet sich an alle, die wissen wollen, wie das Internet funktioniert und in welcher Form Computer miteinander kommunizieren. Es sind keinerlei Vorkenntnisse nötig. Wer sich mit Netzwerkprotokollen und -architekturen bereits auskennt, wird sich hier vermutlich zu Tode langweilen.
Herkömmliche Computeralgorithmen sind dem menschlichen Intellekt in vielerlei Hinsicht überlegen: zum Beispiel beim Multiplizieren großer Zahlen oder bei der Analyse einer großen Anzahl von Zügen bei Schach. Doch es gibt auch viele Aufgaben, die uns für selbstverständlich sind, die Fähigkeiten von Algorithmen jedoch bei weitem übersteigen: Starre Algorithmen können weder menschliche Handschriften entziffern noch wie ChatGPT auf zahlreiche Fragen selbstsichere Antworten geben.
Die jüngsten Durchbrüche in der künstlichen Intelligenz umgehen diese Probleme mit einem ganz anderen Ansatz: Sie nutzen künstliche neuronale Netze, die durch die (teils verstandene) Funktionsweise des menschlichen Gehirns inspiriert sind.
Das Besondere an künstlichen neuronalen Netzen ist, dass sie nicht starr, sondern lernfähig sind. Menschliche Programmierer geben ihre grobe Struktur vor und liefern Trainingsdaten, schreiben aber keine einzige Codezeile, die ihr Verhalten steuert.
Im Sinne eines guten Unix-Kommandozeilentools möchte dieser Vortrag eine Sache erklären und die aber gut erklären: Wie gelingt künstlichen neuronalen Netzen das Lernen?
Wir erfahren, dass die Antwort auf einen mathematischen Durchbruch Ende des 17. Jahrhunderts basiert und diskutieren, warum Deep Learning erst in den letzten Jahren einen steilen Aufschwung erlebte, obwohl die Grundlagen künstlicher neuronaler Netze seit den 1980er Jahren verstanden sind. Wir werden auch einige der größten Probleme neuronaler Netze ansprechen, die sich direkt aus der Art und Weise ergeben, wie neuronale Netze lernen.
Der Vortrag erfordert keine fortgeschrittenen mathematischen Kenntnisse. Wer Michael Nielsens Buch bereits kennt, muss nichts Neues erwarten und sollte diesen Vortrag nur dann besuchen, wenn man Ergänzungen und Kommentare beisteuern möchte.
Über die erfolgreiche Rettung vom Forst Kasten bei München. Ein Blick hinter die Kulissen von Klimagerechtigkeitsaktivismus, wenn er von Linux-Nerds und anderen Sorten Nerds gestaltet wird