Computer Algebra Systeme und Künstliche Intelligenz
Hier findest du folgende Inhalte
Grundkompetenzen
Mathematik Lernen mit Computer Algebra Systemen, Suchmaschinen und Künstlicher Intelligenz
In dieser Mikro-Lerneinheit lernst du, Computer Algebra Systeme für die symbolische oder numerische Berechnung mathematischer Aufgabenstellung kennen, speziell die Programme „Mathematica“, „Maple“ und „MATLAB“. Wir stellen „Python“ und „R“ als beliebte Programmiersprechen für numerische Berechnungen vor. Weiters stellen wir „GeoGebra“ und „Wolfram Alpha“ als beliebte CAS, für den ad-hoc Einsatz vor.
Wir erklären Stärken und Schwächen von keyword-basierter, wissensbasieren und sprachmodelbasierter Recherche speziell im MINT-Umfeld und weisen auf die Gefahren durch die Monopolisierung von Wissen hin.
2023 ist das Jahr in dem generative KI zu einer disruptiven Technologie wird. Wir gehen daher kurz auf die Historie der vier bisherigen industriellen Revolutionen ein.
Computer Algebra Systeme
Computer-Algebra-Systeme (CAS) sind Softwareprogramme, welche die symbolische oder numerische Berechnung mathematischer Aufgabenstellungen ermöglichen.
- Bei der symbolischen Berechnung werden mathematische Ausdrücke so umgeformt oder berechnet bis ein exaktes allgemeingültiges Resultat vorliegt, ohne dass dabei für die Variablen konkrete Werte eingesetzt werden.
- Bei der numerischen Berechnung wird die (näherungsweise) Lösung eines mathematischen Ausdrucks durch schrittweise Annäherung anhand spezifischer numerischer Werte iterativ ermittelt. Es werden dabei konkrete Zahlen für die Variablen eingesetzt und die resultierenden Ausdrücke ausgewertet. Auf die sehr rechenintensive numerische Berechnung greift man zurück, wenn eine symbolische Berechnung nicht sinnvoll möglich ist.
Beliebte Computer-Algebra-Systeme
- Mathematica wurde von Wolfram Research entwickelt und ist ein umfassendes CAS, das eine breite Palette an mathematischen und rechnerischen Fähigkeiten speziell für symbolische Berechnungen bietet.
- Maple ist ein leistungsstarkes CAS, das von Maplesoft entwickelt wurde. Es bietet umfangreiche Werkzeuge für symbolische Berechnungen, mathematische Visualisierung und Programmierung.
- MATLAB ist in erster Linie als numerische Rechenumgebung bekannt, umfasst aber über seine Symbolic Math Toolbox auch Funktionen für symbolische Berechnungen. Es kann durch Simulink ergänzt werden, welches speziell zur Modellierung von technischen, physikalischen oder finanzmathematischen Aufgabenstellungen optimiert ist.
Obige Computer-Algebra-Systeme werden in verschiedenen Bereichen eingesetzt, darunter Mathematik, Physik, Ingenieurwesen, Informatik und Bildung. Sie helfen Forschern, Wissenschaftlern, Ingenieuren und Studenten bei der Durchführung komplexer Berechnungen, der Erforschung mathematischer Konzepte und der Lösung komplizierter mathematischer Probleme.
Bei den oben genannten CAS handelt es sich um kommerzielle Software deren Vollversion auf Grund der Anschaffungskosten für Nutzer mit begrenzten Budgets kaum zugänglich sind. Die Software ist nicht für ad-hoc Einsätze gedacht, da sie eine umfangreiche Einarbeitung erfordern.
Beliebte Programmiersprachen für numerische Berechnungen
- Python als eine weit verbreitete und lizenzlos zugängliche Programmiersprache, die sich leicht erlernen und für numerische Berechnungen verwenden lässt, speziell um große Datenmengen zu sammeln, zu strukturieren, zu analysieren und zu visualisieren. NumPy- und SciPy-Bibliotheken bieten einen umfangreichen Satz numerischer Funktionen und Algorithmen, einschließlich linearer Algebra, Optimierung, Interpolation und mehr. Bei rechenintensiven Aufgaben kann Python im Vergleich zu kompilierten Sprachen langsamer sein. Obwohl NumPy und SciPy leistungsstark sind, bieten sie möglicherweise nicht das gleiche Leistungsniveau wie spezialisierte numerische CAS-Systeme
- R ist eine beliebte Sprache für statistische Berechnungen und Datenanalysen mit umfangreichen Paketen und Bibliotheken. Es bietet eine breite Palette an Statistikfunktionen und Visualisierungsmöglichkeiten. R verfügt über eine starke Community und eine Fülle an Ressourcen zum Lernen und zur Unterstützung. Für allgemeine numerische Berechnungen, die über Statistik und Datenanalyse hinausgehen, ist R möglicherweise nicht so gut geeignet wie spezialisierte numerische CAS-Systeme.
Beliebte Computer-Algebra-Systeme für ad-hoc Einsätze
- GeoGebra ist vor allem als dynamische Mathematiksoftware bekannt, die verschiedene mathematische Darstellungen integriert, darunter Geometrie, Algebra, Analysis und Statistik. Es bietet Benutzern eine Plattform zum Erstellen und Bearbeiten geometrischer Objekte, zum Plotten von Funktionen und zum Durchführen symbolischer Berechnungen mithilfe des integrierten CAS. GeoGebra legt Wert auf interaktives Lernen und Visualisierung und ist daher bei Pädagogen und Studenten beliebt.
Mit den CAS-Funktionen von GeoGebra können Benutzer symbolische Berechnungen durchführen, beispielsweise Ausdrücke vereinfachen, Gleichungen lösen, Ableitungen finden und Integrale auswerten. Allerdings ist die CAS-Funktionalität im Vergleich zu dedizierten CAS-Tools eingeschränkt. Auch die Möglichkeiten komplexe numerische Berechnungen durchzuführen können auf Grund der zugrundeliegenden Spezialisierung nicht mit Wolfram Alpha oder Wolfram Mathematik mithalten. GeoGebra‘s CAS ist in eine umfassenderen mathematischen Visualisierungs- und Explorationsfunktionen integriert und ermöglicht es Benutzern, symbolische Berechnungen mit dynamischen geometrischen Konstruktionen und Visualisierungen zu verbinden. - Wolfram Alpha ist eine rechnergestützte Wissensmaschine, die darauf ausgelegt ist, Fragen zu beantworten und detaillierte Informationen zu einem breiten Themenspektrum bereitzustellen. Es beinhaltet ein leistungsstarkes CAS, das über traditionelle mathematische Berechnungen hinausgeht und ein breites Spektrum an Bereichen abdeckt, darunter Mathematik, Naturwissenschaften, Ingenieurwesen, Finanzen, Linguistik und mehr. Wolfram Alpha kann komplexe mathematische Operationen verarbeiten, sein Anwendungsbereich geht jedoch weit über die reine Mathematik hinaus.
Das CAS von Wolfram Alpha kann anspruchsvolle Berechnungen durchführen, die symbolische Manipulation, Gleichungslösung, Analysis, lineare Algebra, Statistik und mehr umfassen. Es bietet umfassendes integriertes Wissen und Algorithmen, die es ihm ermöglichen, komplexe Probleme in verschiedenen Disziplinen zu lösen. Im Gegensatz zu GeoGebra konzentriert sich Wolfram Alpha in erster Linie auf die Bereitstellung detaillierter Antworten und Erklärungen auf der Grundlage von Benutzeranfragen und nicht auf interaktive Erkundungen oder dynamische Visualisierungen.
Zusammenfassend lässt sich sagen, dass sowohl GeoGebra als auch Wolfram Alpha CAS-Funktionen bieten, GeoGebra sein CAS jedoch in eine umfassendere interaktive Mathematiksoftware integriert und dabei den Schwerpunkt auf visuelles Erkunden und Lernen legt. Im Gegensatz dazu ist Wolfram Alpha eine umfassende rechnerische Wissensmaschine, die neben ihren vielen Funktionen auch ein robustes CAS umfasst und als Werkzeug zum Erhalten detaillierter Antworten und Erklärungen in zahlreichen Bereichen dient.
Mathematik Lernen mit Hilfe von Suchmaschinen (Google, Wolfram Alpha) und künstlicher Intelligenz (ChatGPT)
Lernen mit Keyword basierten Suchmaschinen mittels organischer Treffer
Keyword basierte Suchmaschinen wie Google, Bing, Yahoo oder Ecosia durchforsten mit Hilfe eines Web-Crawlers zyklisch die ihnen zugänglichen Teile vom Internet und erstellen einen Index, der für jedes Schlüsselwort die relevanten Webseiten auflistet. Da Google 2022 einen Anteil von 95% der Suchanfragen im deutschen Sprachraum hatte, werden wir uns im Folgenden auf die Google Terminologie beschränken.
Sucht ein Nutzer der Suchmaschine nach einem bestimmten Schlüsselwort – z.B.: „Binomialkoeffizient“, werden auf der SERP (Search Engine Result Page) nach einem (geheimen) Ranking-Algorithmus aus dem Index die blauen Links auf die relevanten Webseiten ausgegeben. Man spricht dabei von organischen Suchtreffern. Klickt der Suchende den Link an, landet er auf der entsprechenden Website eines Inhalteanbieters irgendwo auf der Welt. Da mehr als ein Treffer angeboten wird, bleibt die Meinungsvielfalt gewahrt.
2012 haben die keyword-basierten Suchmaschinen bezüglich der Strukturierung von Daten aufgerüstet. Oberhalb der organischen Treffer gibt Google auf der SERP, abgesehen von bezahlter Werbung, mehrere Boxen aus, deren Inhalt von Google generiert wird. D.h. Google verlinkt nicht mehr auf externe Inhalte, sondern generiert die Inhalte selbst. Die Quellen werden möglichst unauffällig angegeben und es ist nicht die Absicht von Google, dass Nutzer zum eigentlichen Inhalteanbieter weitersurft. Der Nutzer bleibt im Ökosystem von Google und es fällt kaum mehr Traffic für externe Webseiten an, die Meinungsvielfalt bleibt auf der Strecke.
- Direkt Answer, beantwortet einfache Suchanfragen, die über ein gigantischem Suchvolumen verfügen direkt, z.B.: "km Meilen". Der Nutzer bleibt im Google Ökosystem.
- Knowledge Panel bzw. Informationen aus dem Knowledge Graph, damit werden die auf verschiedenen Webseiten gefunden Informationen automatisch von Google zusammengefasst. Die Nutzer erhalten einen schnellen Überblick über allgemeine Themen, ohne auf externe Webseiten zu surfen. Hier werden ab 2023 wohl KI generierte Texte den Nutzer noch stärker zum Verweilen im Google Ökosystem verleiten.
- Featured Snippets, damit werden Auszüge aus einer durch Favicon und URL grundsätzlich identifizierbaren externen Webseite in Form einer Antwort auf die sehr konkrete Suchanfrage zusammengefasst. Trafficstarke Featured Snippets bringen viel organischen Traffic auf die Website des Inhalte-Erstellers. Hier werden ab 2023 wohl KI generierte Texte den Nutzer noch stärker zum Verweilen im Google Ökosystem verleiten.
- People Also Ask - Boxen, damit werden ähnliche Fragen beantwortet, die für den Nutzer ohne dessen Zutun die Suchanfrage verfeinern oder leicht abwandeln.
D.h. der Nutzer erhält eine erste oberflächliche und natürlichsprachige Antwort auf seine Suchabfrage bereits direkt durch Google, und zwar ganz oben auf der Trefferseite, noch vor den organischen Treffern. Der Nutzer "erspart" es sich dadurch auf die der Antwort zugrunde liegende Website zu surfen, was den Webseiten, welche die Inhalte aufwendig erstellt haben, um die Besucher und die damit verbundenen Vermarktungsmöglichkeiten bringt. An dieser Stelle sei vor einem Informationsmonopol durch Google, Bing, Yandex und Baidu gewernt!
Der Betrieb eines Indexers ist extrem teuer, daher gibt es weltweit nur 4 große Suchindizes (Google und Bing aus den USA; Yandex aus Russland bzw. den Niederlanden und Baidu aus China) die auf Grund ihrer Dominanz das Potential haben, die gesellschaftliche Willensbildung zu beeinflussen. Daher fördert die EU derzeit den Aufbau von einem europäischen Suchindex.
Das Training einer KI und deren Betrieb in einem Rechenzentrum sind ebenfalls extrem teuer, sodass es auch hier vor einem Informationsmonopol gewarnt werden muss.
Lernen mit wissensbasierten semantischen Suchmaschinen
Wissensbasierte semantische Suchmaschinen wie Wolfram Alpha suchen nicht nach einzelnen Schlüsselwörtern, sondern nach deren Bedeutung („Notable people born in Vienna“ wird zerlegt in „City=Vienna“ & „notable people born in city“) und nützten dabei durch „Data Curators“ händisch ausgewählte vertrauenswürdige Datenquellen, etwa von Statistischen Zentralämtern. Es kommt kein Indexer zum Einsatz.
Als Ausgabe erhält der Nutzer keine Links auf die Datenquellen wie bei Google, aber auch keinen Text in natürlicher Sprache wie bei ChatGPT, sondern ein Set an strukturierten Daten.
Bei der Suchfunktionalität von Wolfram Alpha handelt es sich um ein wissensbasiertes System, welches formalisierte Regeln und Logiken verwendet, um Fragen faktenbasiert zu beantworten. Der Nachteil dieses Ansatzes ist, dass die Suchmaschine komplex formulierte sprachliche Anfragen nicht verarbeiten kann und nur auf Fragen aus ausgewählten Wissenschaften eine Antwort liefern kann.
Lernen mit KI basierten Sprachmodellen
KI-basierte Sprachmodelle wie ChatGPT von OpenAI oder Bard von Google wurden vorab mit gigantischen Textmengen trainiert. Sie nützen neuronale Netze, um Beziehungen zwischen einzelnen Worten und Texten zu erfassen und darauf aufbauend, basierend auf Wahrscheinlichkeiten und Modellen von Wortabfolgen, neue Texte zu erzeugen und diese dann in natürlicher Sprache auszugeben.
Während ChatGPT einen Text schreibt, evaluiert es auf der Basis eines komplexen Sprachmodells mit Milliarden an Parametern vor jedem neuen Wort, welche Wörter mit der größten Wahrscheinlichkeit auf den bisher geschriebenen Satzteil folgen sollten, um letztlich eine sinnvolle Abfolge von Sätzen zu ergeben.
Für mathematische Anwendungen bedeutet dies, dass ChatGPT die Summe aus 2+3 nicht eigenständig errechnen kann, sondern darauf angewiesen ist, das Resultat in den Trainingsdaten zu finden. Ist das nicht der Fall, fängt ChatGPT an zu raten!
Andererseits kann ChatGPT mathematisches Grundlagenwissen, welches in den Trainingsdaten umfangreich enthalten ist, sehr gut an die konkrete Fragenstellung des Nutzers in dessen natürlicher Sprache angepasst wiedergeben. Z.B.: „Wobei nützt mir der Binomialkoeffizient?“
Durch die Sprachmodelle werden Features Snippets, Knowledge Panel und People Also Ask – Boxen obsolet.
Obwohl die Sprachmodelle mit Hilfe von Büchern sowie wissenschaftlichen Arbeiten trainiert wurden und auch auf den Indexer von schlüsselwortbasierten Suchmaschinen (Google, Bing,..) zugreifen können, bleibt dem Nutzer die Herkunft der Daten verborgen.
In den Trainingstexten liegen also zugleich die Stärken und Schwächen der KI-basierten ChatBots. Sind die dort enthaltenen Daten falsch oder trendig (z.b. vorurteilsbehaftet) so schlägt dies auf die Antworten durch.
Hinweis auf die Gefahr der Monopolisierung von Wissen
So begeistert Lernende über diesen Durchbruch bei Recherchetools auch sein mögen, so sei dennoch vor Missbrauch gewarnt:
Im Oktober 2022 hat der Tech-Milliardär Elon Musk Twitter – nunmehr X – um unvorstellbare 40 Milliarden Euro gekauft und nach seinen ganz persönlichen Vorstellungen dieses weltumspannende Informationsnetzwerk umgestaltet.
Im September 2023 kamen Gerüchte auf, Elon Musk als Gründer und CEO von SpaceX, dem Mutterunternehmen von Starlink, hätte persönlich angeordnet das Satellitenkommunikationsnetzwerk in der Umgebung der russisch besetzen Krim Halbinsel abzuschalten, um einen potenziellen Angriff der Ukraine auf die dort stationierte russische Flotte zu verhindern.
Diese beiden Beispiele zeigen, welchen realen Einfluss bereits heute ein einzelner Mensch auf die freie Meinungsbildung und auf den Verlauf eines Krieges hat.
Stellen wir uns vor, ein anderer Tech-Milliardär hatte vergleichbaren Einfluss auf die Trainingsdaten von ChatGPT. Stellen wir uns weiter vor, er würde beispielsweise daran glauben, dass Gott die Erde wörtlich in sieben Tagen erschaffen hat und damit Darwins Theorie von der Evolution negieren. Könnte er diese Meinung auf Grund seines Aktenanteils durchsetzen und Darwins Theorie fortan nicht mehr zu den Traingsdaten gehören, so würde auch ChatGPT diese fragwürdige Schöpfungstheorie mit Nachdruck gegenüber seinen Nutzern vertreten.
Risiko systematischer Fehlinformation bei Suchindex basierte Recherche beim Lernen:
Die Nutzung von schlüsselwortbasierten Suchmaschinen wie Google zur Informationsbeschaffung beim Lernen ist uns heute bestens vertraut. Der Nutzen ist unbestritten, die größte Gefahr liegt in der weltweiten Konzentration des Angebots auf nur 4 Betreiber von Suchindizessen (Google, Bing, Yandex und Baidu).
Bislang gibt der Nutzer einen Suchbegriff als Anfrage ein und erhält als Antwort eine Liste mit relevanten Links. Aus dieser Vielzahl an möglichen Antworten sucht er sich dann die passende Antwort selbst heraus. Auf Grund der Impressumspflicht weiß der Nutzer, von welchem Menschen die Antwort stammt.
Risiko systematischer Fehlinformation bei Sprachmodell basierte Recherche beim Lernen:
Seit der Einführung von ChatGPT, dem Sprachmodell von Open AI, basiert die Anfrage nicht mehr auf einem Schlüsselwort oder Satzteil, sondern auf mehreren ausformulierten Sätzen, mit denen die Such-Intention genau abgegrenzt werden kann. Die Antwort ist aber keine Vielzahl an Verweisen auf individuelle Websites, sondern ein eloquent ausformulierter Text aus mehreren Sätzen bzw. Absätzen, jedoch ohne Bezug auf die zugrunde liegenden Quellen. Der Nutzer kann auch um eine Korrektur, Vereinfachung oder Vertiefung der Antwort bitten und erhält so, wie bei einem Dialog zwischen Menschen, eine kontextbezogene Antwort. Super!
Weniger Super: Die Antwort ist allerdings nicht einmal ein „best-off“ aller (ungenannten) Quellen, sondern – man lasse sich das auf der Zunge zergehen – „Jene Abfolge von Worten, mit der höchsten statistischen Wahrscheinlichkeit, für eine sinnvoll formulierte Antwort“. ChatGPT kann 1+1 nicht (!) berechnen, es kann nur auf Grund von Trainingsdaten sagen, dass es statistisch wahrscheinlich ist, dass „1+1=2“ gilt. Sind die Trainingsdaten zudem nicht objektiv, sondern tendenziell (rassistisch, frauenfeindlich, politisch geschönt, verschwörerisch, …), so ist die Antwort ebenfalls nicht objektiv. Bei der indexbasierten Suche hingegen deckt die Liste an Links auf verschiedene Websites ein breites Meinungsspektrum ab.
Kommen Informationen in den Trainingsdaten nicht vor, so fabuliert ChatGPT. Sprachmodelle können grundsätzlich und für alle Zukunft gar nicht entscheiden, ob ihre Antwort richtig ist oder falsch ist, denn sonst müsste die KI bei der Bewertung der Anfrage über mehr Wissen verfügen als bei der Formulierung der Antwort.
Evolutionäre versus revolutionäre Entwicklungen im Bereich von Technologie
Generative KI gilt als eine disruptive Technologie, durch die die Erstellung von Texten, Musik, Bildern und Videos radikal verändert wird, indem menschliche intellektuelle Leistung durch maschinelle Leistung ersetzt wird.
Eine vergleichbare Entwicklung hat es mit dem Ersatz von manueller durch maschinelle Arbeit, also durch die Erfindung der Dampfmaschine, schon einmal gegeben. Zur besseren geschichtlichen Einordnung der aktuellen Herausforderungen, denen wir speziell seit dem Jahr 2023 zufolge des lawinenartigen Einsatzes von KI gegenüberstehen, beginnen wir daher mit einem kurzen Rückblick:
Während durch evolutionäre technologische Entwicklungen Produkte im Laufe der Zeit durch inkrementelle Verbesserungen kontinuierlich weiterentwickelt werden und dabei auf vertrauten Vorgängermodellen aufbauen (das neueste Automodell stellt eine Verbesserung des Vorgängermodells dar, das schon seinerseits eine Verbesserung des Vorgängermodells darstellte, …), führen revolutionäre Entwicklungen zu radikalen Veränderungen, welche die bestehende Paradigmen in Frage stellen und völlig neue Möglichkeiten und Risken schaffen.
Revolutionäre Entwicklungen stellen einen raschen dramatischen Umbruch dar und haben weitreichende Auswirkungen auf Wirtschaft, Technologie, Arbeitsmarkt und Gesellschaft. Die Weiterentwicklung von Innovationen zufolge revolutionärer technologischer Entwicklungen haben einen exponentiellen Charakter. Sie haben das Potential Produktivität sprunghaft zu steigern und damit punktuellen Wohlstand zu erzeugen, der jedoch oft zu Lasten von breiten Schichten an Erwerbstätigen geht, und neue Einkommensungleichheiten schafft.
Sie sind daher verbunden mit Ängsten vor sozialer und wirtschaftlicher Ungerechtigkeit, denen man durch Regulierung und Politik so entgegenwirken sollte, dass die Vorteile der neuen Technologien einer breiten Bevölkerungsschicht zugutekommen.
KI als General Purpose Technology und die vier bisherigen industriellen Revolutionen
Unter dem Ausdruck „General Purpose Technologies“ fasst man bisherige revolutionäre technologische Fortschritte zusammen, die auf Grund ihrer exponentiellen und globalen technologischen Umbrüche das Potential haben, tiefgreifende und weitreichende Veränderungen in Wirtschaft und Gesellschaft herbeizuführen. Beispiele für derartige General Purpose Technologies sind:
Dampfmaschine: (1770, Watt) Sie prägte die erste industrielle Revolution, in dem sie den Übergang von handwerklicher auf industrielle Produktion ermöglichte. Die Dampfmaschine revolutionierte durch die damit einher gehende Mechanisierung die Landwirtschaft, die produzierende Industrie und das Transportwesen.
Elektrizität: (1882, Edison) Sie prägte die zweite industrielle Revolution, weil elektrischer Strom den Transport und die Nutzung von Energie revolutionierte. Sie ermöglichte kostengünstige Motoren, Beleuchtung und die Fernkommunikation durch Telefon und Radio, wodurch sich der Lebensstandard breiter Bevölkerungsschichten erheblich verbesserte.
Digitalisierung: (1950, IBM bzw. 1990, Berners-Lee) Sie prägte die dritte industrielle Revolution, durch den Übergang von analogen zu digitalen Techniken. Lernende sind nicht mehr darauf angewiesen Bücher physikalisch in die Hand zu bekommen, sondern ganze Bibliotheken sind digital 24/7 verfügbar. Computer, das Internet, HTML-basierte Webbrowser, Keyword basierte Suchmaschinen mit Links auf organische Treffer revolutionierten die Art und Weise wie Menschen und Maschinen Informationen verarbeiteten, bereitstellten und teilten.
Erfolgten die ersten drei industriellen Revolutionen noch mit einem zeitlichen Abstand von jeweils 100 Jahren, erfolgt die vierte industrielle Revolution staccatoartig auf breiter Front und mit exponentieller Geschwindigkeit.
Vernetzung von gigantischen Datenmengen: (2010) Vor allem die Auswertung von Datenmengen, deren Umfang von Menschen nicht mehr erfasst werden kann, begründet die vierte industrielle Revolution: Big Data, IoT (Internet der Dinge), Maschinelles Lernen und darauf aufbauend KI (Künstliche Intelligenz; Englisch: AI), aber auch Augmented bzw. Virtual Reality (erweiterte Realität) und autonomes Fahren sind zu alltäglichen Buzzwords geworden.
Hinzu kommt der signifikante Ersatz von fossiler durch erneuerbare Energie im Rahmen des Kampfs gegen den Klimawandel, sowie der Einsatz von Biotechnologie basierend auf der Genomsequenzierung im Bereich der Medizin.
Versteh' ich nicht - Gibt's nicht!
Frage kostenlos per eMail unser Supportteam
Damit niemand mehr bei Mathe in's Schwimmen kommt

Mathematik lernen mit ChatGPT
In dieser Mikro-Lerneinheit lernst du die Recherche mittels der KI ChatGPT kennen. Wir zeigen, wie man die ChatGPT startet und bedient, warum man für jedes Thema einen separaten Chat starten sollte, erklären die Stärken und Schwächen, die mit einer sprachbasierten generativen KI verbunden sind und erklären wofür „GPT“ steht.
Mathematik lernen mit Künstlicher Intelligenz
Das Jahr 2023 wird wohl in die Geschichte eingehen, als das Jahr in dem generative künstliche Intelligenz nicht mehr nur ein Thema für IT-Profis ist, sondern in der breiten Masse der nicht technikaffinen Internetnutzer angekommen ist. Innerhalb von nur 5 Tagen erreicht ChatGPT eine Million Nutzer. Dafür hat Instagram 2,5 Monate benötigt, Facebook immerhin 10 Monate und Twitter gute 2 Jahre.
Was ist das revolutionäre an einer KI?
Eine künstliche Intelligenz basiert auf Algorithmen für maschinelles Lernen. Im Gegensatz zu konventionellen Programmen, bei denen der menschliche Programmierer Befehle und Regeln in einer bestimmten Computersprache vorgibt, die während der Programmlaufzeit vom Compiler oder Interpreter Schritt-für-Schritt abgearbeitet werden, findet die künstliche Intelligenz ihre ganz spezifischen Regeln durch selbstständiges Ausprobieren und benchmarken an einem vorgegebenen Ziel selbst. So kann eine KI Beziehungen und Regeln finden und nutzen, von denen der menschliche Programmierer gar keine Ahnung hatte.
Nachfolgend werden wir den Erwerb von MINT-Wissen anhand der generativen KI ChatGPT besprechen. Eines gleich vorweg: Bei ChatGPT handelt es sich um eine sprachbasierte KI, d.h. zweierlei:
- ChatGPT kann ohne Plugins (etwa für das Computer Algebra System (CAS) von Wolfram Alpha) nicht rechnen! Fragt man ChatGPT „Wieviel ist 1+1?“, so erhält man als Antwort jenes Resultat, das ChatGPT am häufigsten in den Daten gefunden hat, mit denen es trainiert wurde: „1+1 ergibt 2“. Und müsste eigentlich hinzufügen: „Wahrscheinlich“
Hat ChatGPT das Resultat aber noch nie gelesen, fängt es an zu raten: „Wieviel ist \root 5 \of {147,95} =“. Die Antwort lautet „Die fünfte Wurzel von 147,95 beträgt ungefähr 2,364“, was nicht wirklich brauchbar ist, denn:
\(\root 5 \of {147,95} \approx 2,71658\) - ChatGPT ist aber ein brauchbares Mathematik-Lexikon! Fragt man ChatGPT: „Wofür dient der Binomialkoeffizient“ so erhält man eine brauchbare Antwort: „Der Binomialkoeffizient, oft mit dem Symbol "n über k" oder "C(n,k)" dargestellt, ist eine mathematische Funktion, die in der Kombinatorik und Wahrscheinlichkeitstheorie weit verbreitet ist. Er dient dazu, die Anzahl der Möglichkeiten zu berechnen, k Elemente aus einer Menge von n Elementen auszuwählen, ohne die Reihenfolge zu berücksichtigen… Die Berechnung des Binomialkoeffizienten erfolgt in der Regel mithilfe der Kombinatorik-Formel:
\(C\left( {n,k} \right) = \left( {\begin{array}{*{20}{c}} n\\ k \end{array}} \right) = \dfrac{{n!}}{{k!\left( {n - k} \right)!}}\). ... ". In der weiteren Antwort von ChatGPT kommt aber auch der Begriff „Binomiales Experiment“ vor. Fragt man nach, ob ein „Binomiales Experiment“ dasselbe wie eine „Bernoulli-Kette“ ist, so verfängt sich ChatGPT in Widersprüchen….
Was ist ChatGPT?
Chat steht für eine Mensch Maschine Schnittstelle (MMI), die einen Dialog zwischen Menschen und KI in Form von Frage und Antwort ermöglicht.
GPT steht für „Generative Pre-Trained Transformer“.
- Generative bedeutet, dass die KI eigenständige Texte erstellen (also „generieren“) kann, die sehr wahrscheinlich eine sinnvolle Antwort auf eine textuelle Eingabe bzw Fragestellung darstellen. Generative KI ist aber nicht nur auf Textausgaben beschränkt. Mittels generativer KI wie Midjourney, Dalle-E, Stable Diffusion und Adobe Firefly kann eine Texteingabe auch Bilder und Grafiken generieren und in Veränderungen von Fotos und Videos resultieren.
- Pre-Trained bedeutet, dass die KI vorab mit einer gigantisch großen Anzahl an Textinhalten bzw. Bildern aus Datenbanken trainiert wurde. Während des Trainings baut die KI einen multi-dimensionalen Vektorraum auf, in dem Token mittels Vektoren platziert werden.
- Transformer bezeichnet eine spezielle Art eines neuronalen Netzwerks, das in der Verarbeitung von natürlicher Sprache (Natural Language Processing, NLP) erfolgreich eingesetzt wird.
- Zunächst werden in der Eingabe / Fragestellung („Prompt“ genannt), die für deren Beantwortung relevanten Daten mit Hilfe eines Aufmerksamkeitsmechanismus erfasst.
- Auf Grund des Trainings hat sich das Modell selbst, also ohne menschliches Zutun, durch maschinelles Lernen, Muster und Beziehungen angelernt, um durch Gewichtungen bestimmen zu können, mit welchen Ausgaben es auf konkrete Eingaben reagieren soll.
- Auf Grund von Wahrscheinlichkeitsverteilungen erfolgt das Sampling, also die schrittweise Zusammenstellung der Antwort, bei der das wahrscheinlichste Wort der nächsten Ausgabe unter Berücksichtigung der bereits generierten Teilsätze so bestimmt wird, dass eine syntaktisch korrekte gut lesbare Antwort entstehen.
ChatGPT ist also eine sprachbasierte generative KI, bei der eine künstliche Intelligenz vom Typ „Large Language Model (LLM)“ mit dem Nutzer unter Zuhilfenahme einer Chatoberfläche kommuniziert. Große Sprachmodelle (LLMs) wie ChatGPT und Bard wurden mit mehreren hundert Milliarden an Texten trainiert, wovon etwa Wikipedia weniger als 0,5% der Trainingsdaten ausmacht.
Der Einstieg in ChatGPT
Sie können ChatGPT nutzen, indem Sie in ihrem Browser die URL „chat.openai.com“ aufrufen und sich dort mit Ihrem Google User anmelden.
- ChatGPT-3.5: Dann steht Ihnen die Version GPT-3.5 kostenlos und die Version GPT-4 gegen ein monatliches Entgelt zur Verfügung. ChatGPT 3.5 gibt den September 2021 als letztes Update für den trainierten Wissensstand an und arbeitet mit einem Limit von 4096 Token (Textfragmenten), was einem Chatverlauf von wenigen tausend Worten entspricht.
- ChatGPT-4: Das kostenpflichtige ChatGPT 4 soll einen Chatumfang von ca. 50 Seiten umfassen und zusätzlich Bilder verarbeiten. Die Benutzeroberfläche wird nicht nur geschriebene Chats umfassen, sondern auch Spracheingabe (Voice-to-Text mittels Whisper) und Sprachausgabe (Text-to-Speech). Ebenfalls in Arbeit ist die Interpretation von Text, der in Fotos enthalten ist, als zusätzliche Eingabemöglichkeit. Zusätzlich gibt es zu ChatGPT-4 sogenannte Plug-Ins, die etwa die Anbindung des Computer Algebra Systems von Wolfram Alpha ermöglichen, wodurch ChatGPT auf tatsächlich rechnen kann
- Prompt: So wie es uns von der Google-Suche vertraut ist, gibt man in den Eingabe-Slot eine Suchanfrage, die Prompt genannt wird, ein. Im Unterschied zur Google-Suche formuliert man sein Ansinnen aber nicht stichwortartig, sondern in mehreren ganzen natürlichsprachigen Sätzen. Stellt man eine Frage in deutscher oder englischer Sprache, so erfolgt die Antwort in der entsprechenden Sprache. Der Eingabe kann und soll auch Hinweise auf die Zielgruppe der Antwort mitgeben (etwa „schülergerecht“, „in 5 Bullet Points“, …). Man kann ChatGPT auch bitten eine konkrete Sichtweise einzunehmen ("Wie hätte Newton das erklär") oder ein Sprachniveau (A1, also einfachstes Vokabular) einzuhalten. Für jedes Thema sollte man einen neuen Chat anlegen.
- Token: Der mittels Prompt eingegebene Text wird in einzelne Text-Fragmente, sogenannte Token zerlegt. Ein Token ist zugleich die kleinste Einheit in der ChatGPT Texte verarbeitet und sie sind auch die Basis für die Verrechnung bei Bezahlmodellen. ChatGPT versteht Eingaben auf Basis von Token und generiert Ausgaben auf Basis von Token. Ein Token kann dabei ein Satzzeichen, den Teil eines Worts, ein einzelnes Wort oder eine ganze Phrase umfassen.
- Token-Vektor: Jeder Token aus den Traingsdaten wird mittels eines Vektors in einem virtuellen multi-dimensionalen Vektorraum dargestellt. Das ist extrem aufwändig! Die Vektoren sind so konzipiert, dass sie semantische Informationen über den Token enthalten und es dem Transformer (das T in GPT) ermöglichen, Beziehungen zwischen den Tokens zu modellieren. Auf Basis der Token-Vektoren kann der Transformer komplexe sprachliche Muster erkennen. Die Vektoren können dazu verwendet werden, um mathematische Operationen auf den Token anzuwenden, wie das Berechnen von Ähnlichkeiten zwischen Token oder das Generieren von Text basierend auf Token unter Berücksichtigung der Wahrscheinlichkeit für eine insgesamt intelligente Antwort über mehrere Sätze hinweg.
- Chat: Ein kontext-umfassender Chat kann nur eine endliche Anzahl an Token umfassen. Dh ChatGPT verliert nach dem Überschreiten einer vorgegebenen Anzahl an Token (4096 Token bei Version ChatGPT-3.5) den “roten Faden“ in einem Chat. Dh es weiß nicht mehr, was es zuvor von sich gegeben hat. Das ist bei uns Menschen aber auch so …
-
Chatverlauf mit durchgängigem Kontext: Die vergangenen Anfragen bleiben in der linken Bildleiste von ChatGPT erhalten und können jederzeit im Rahmen dieses Chats fortgeführt werden. Will man das Thema wechseln, so bietet sich der Button „New Chat“ an, wodurch man einzelne Chats thematisch fokussieren kann. Man spricht vom Kontext des Chats, der es ChatGPT ermöglicht zu wissen um welches übergeordnete Thema es bei einer Abfolge von Anfragen – dem Chatverlauf - geht.