Prolog Philippe Wampfler vertrat vor einiger Zeit die Auffassung, dass KI-Detektoren funktionieren. Es gibt Fachpersonen wie Doris Wessels, die dem
KI generierte (Fach-)Arbeiten erkennen
Prolog
Philippe Wampfler vertrat vor einiger Zeit die Auffassung, dass KI-Detektoren funktionieren. Es gibt Fachpersonen wie Doris Wessels, die dem vehement widersprechen. Ein zentraler Ansatz von Philippe ist folgender:
Die funktionierenden Detektoren setzen aber genau so wie die text- oder bildgenerierenden Tools Machine-Learning ein, um KI-gemachte von menschengemachten Produkten zu unterscheiden.
Die minimale Voraussetzung, dass man Modelle speziell mit KI Artefakten trainiert, um diese spezialisierte Anwendung abzudecken, ist eine kostendeckende Nachfrage durch den Markt. Ich glaube, der zugehörige Markt ist – zumindest für die Prüfung von Texten – schlicht zu klein, um ein Modell aufwändig für diesen Anwendungsfall zu trainieren. Als „Techie“ glaube ich eher an eine selbstreflexive Mustersuche der Modelle in den eigenen Vektorräumen mit Systemsprompts wie:
„Welche Anteil des vorliegenden Textes findet du mit hoher Wahrscheinlichkeit in genau der dargebotenen Reihenfolge im Vektorraum deines eigenen Modells?“
Und damit laufen wir in systematischen Probleme der transformerbasierten LLMs, z.B. der prinzipbedingt mangelnden Stabilität: Lässt man den gleichen Text 10x „testen“, erhält man zehn unterschiedliche Prozentwerte für die Wahrscheinlichkeit, dass ein Text KI-generiert ist.
Der Anlass
Ich habe in diesem Jahr 15 Facharbeiten korrigiert. Das ist hier in Niedersachsen die „letzte Runde“, weil man behördlich vor dem „KI-Problem“ bereits insofern kapituliert hat, dass die Facharbeit künftiger Schülergenerationen durch andere Formate ersetzt wird. Lisa Rosa weist dabei nach einmal auf den Zusammenhang zwischen Schreiben und Denken mit Verweis auf Vygotskij hin. Ich halte diese Entscheidung in Bezug auf die Erstellung von Facharbeiten daher für verfrüht.
Ich habe den Schüler:innen gegenüber offen kommuniziert, dass ich KI-Detektoren einsetzen werde und musste mir von Doris Wessels (sie stammt aus einer Nachbargemeinde) allein für die Idee viel Kritik anhören.
Mein Ansatz war folgender:
- Ich nutze für die gesamte Lerngruppe das gleiche Tool (ZeroGPT) und bilde einen Mittelwert der ermittelten Wahrscheinlichkeiten.
- bei hohen Anweichungen nach oben schaue genauer auf bestimmte Textmarker (s.u.) und behalte mir ggf. inhaltliche Nachprüfungen vor.
- Eine unmittelbare Auswirkung auf die Bewertung entsteht durch das Ergebnis eines KI-Detektors allein(!) erstmal nicht.
Erkenntnisse
Die Nutzung eines KI-Detektors ist kompletter Unsinn. Dabei ist es irrelevant, ob er funktioniert oder nicht funktioniert, weil der Text der Facharbeit höchstwahrscheinlich durch inkompetenten Gebrauch von LLMs inhaltlich und strukturell deutlich schlechter wird als durch eigenständige Erarbeitung. Das gilt ausdrücklich nicht für die sprachliche Form.
In diesen Thread auf bildung.social sind einige Textmarker zusammengetragen, die zumindest bei mir gut mit einer hohen Wahrscheinlichkeit im KI-Detektor korrelieren. Sie stammen von mir und der Community (u.a. Tobias Wunder, I. L. Villian)
- Keine direkten Zitate bzw. Auseinandersetzung damit
- Inhaltliche Neuansätze, durch Aneinanderreihung von Quellenzusammenfassungen
- Redundanzen, wenn Quellen zu analogen Schlüssen kommen
- Lehrbuchartiger Sprachduktus, meist „überreduziert“ und dadurch oberflächlich
- Inhaltlich viel zu breite Anlage
- Kaum vorhandene Lesendenführung, fehlende Vernetzung
- Seltsame, unvollständige Aufzählungen ohne Mehrwert
- „Stotterer“ (gleiche Satzteile mehrfach im Satz), z.B. „Es gibt verschiedene Ampelfarben, z.B. rot, gelb, rot, blau.“
- Seltsame, durch Googeln oder Literaturrecherche für SuS kaum auffindbare Belege
- Bei international bedeutsamen Themen eine starke US-Zentrierung der Quellen
- Von Seiten wie books.google.com usw. wird nur der Deeplink Link „zitiert“, obwohl der Text dahinter komplette bibliografische Daten besitzt.
- […]
Jeder dieser Textmarker ist durch Spezifika der LLMs mit Transformeransatz gut erklärbar, die „Stotterer“ etwa durch Modellrauschen oder der Sprachduktus durch zu breites themenübergreifendes Training des Modells.
Die häufig zu breite inhaltliche Anlage lässt sich dadurch erklären, dass in Wissensdomänen, in den sich ein Schreiber nicht auskennt, nicht sinnvoll zwischen Relevanz und Irrelevanz unterschieden werden kann und auch die Auswahl eines sinnvollen Fokus erschwert ist. Das passt sehr gut zur Kognitionstheorie mit Langzeit- und Arbeitsgedächtnis.
Daher glaube ich mittlerweile, dass LLMs völlig ungeeignet für Novizinnen in einem Thema sind, wenn sie sich einen Überblick darüber verschaffen wollen oder ohne Vorrecherche Gliederungen mit solchen Werkzeugen erstellen lassen – entgegen häufig beschriebener unterrichtlicher Einsatzszenarien auf Socialmedia.
Ausblick
Die häufig angebotene „Lösung“ bei schlechten Ergebnissen durch LLMs besteht darin, den „Fehler“ in mangelnden Prompting-Skills zu sehen. Mich überzeugt das immer weniger, gerade wenn es darum geht, einen geschlossenen Gedankengang unter Verwendung von Sekundärliteratur zu entwickeln. Ein herausragender Text setzt für mich eigene Lebensrealität, eigenen Erfahrungen in der Welt in Bezug zu Erfahrungen aus Literatur, Forschungsergebnissen Dritter usw..
Wir können in Bezug auf LLMs alles daherargumentieren, aber genau an dem fehlenden individuellen Weltbezug muss es systembedingt bei unseren heutigen algorithmischen Ansätzen immer scheitern.
Es gibt Anwendungen, für die LLMs geradezu prädestiniert sind, nämlich bei allem, was im Prinzip entseelt ist und keinen individuellen beruflichen Arbeitsschwerpunkt bildet: Aus PDFs Excelsheets machen, viele Formen von Gutachten, Vermerke Anträge – d.h. Kommunikationssituationen, die im Prinzip kaum durch dialogische, sondern eher parasoziale Diskurse geprägt sind – gerade auch in juristischen Bereichen. Und gerade dort dürfte es hinreichend große Märkte geben, um spezialisierte Nischenmodelle gezielt zu trainieren.
Herausforderungen bei der Nutzung von Sprachmodellen im Bildungssystem
Ich habe erstmalig einen für mich sehr wichtigen Text von Jeppe Klitgaard Stricker aus dem Englischen mit Hilfe von https://www.deepl.com auf Deutsch übersetzt. Dabei habe ich nur einige kleinere Veränderungen vorgenommen. Ich nutze den ursprünglichen LinkedIn-Post von Jeppe in meinen Grundsatzvorträgen zu KI (ab Folie 47), in den er in diesem längeren Text weiter ausgeführt hat. Jeppe ist seit über zwanzig Jahren beruflich in der universitären Bildung unterwegs und kommt aus Dänemark.
Die stille Revolution: Wie KI das Hochschulwesen auf den Kopf stellt
Wir erleben derzeit tiefgreifende Veränderungen in der Art und Weise, wie Schüler und Studenten denken und lernen, doch viele dieser Veränderungen werden in Bildungskreisen nach wie vor kaum thematisiert. Während sich Debatten über KI im Bildungswesen oft auf akademische Integrität und Bewertungsmethoden konzentrieren, finden bereits tiefgreifende kognitive und verhaltensbezogene Veränderungen statt. Darüber müssen wir sprechen.
Man sollte im Blick haben, dass Studierende möglicherweise bereits unbewusst die charakteristischen Kommunikationsmuster der KI übernehmen – eine Form der intellektuellen Spiegelung, die in ungezwungenen Gesprächen beginnt und sich dann in den akademischen Diskurs einschleicht. Dabei geht es nicht nur um das Nachahmen von Sprache; vielmehr handelt es sich um eine potenzielle Veränderung in der Art und Weise, wie Studierende Ideen verarbeiten und formulieren.
Noch beunruhigender ist vielleicht, dass wir bereits erste Anzeichen dessen beobachten, was man als „digitale Abhängigkeitsstörung“ bezeichnen könnte – Schüler:innen, die echte Angstgefühle verspüren, wenn generative KI-Tools vorübergehend nicht verfügbar sind.Die gesellschaftlichen Kosten
Diese Abhängigkeit steht im Zusammenhang mit einem umfassenderen Phänomen, bei dem sich Studierende zunehmend als Fachexperten betrachten, nur weil generative KI komplexe Inhalte auf scheinbar leicht verständliche Weise präsentiert hat.
Die Illusion, durch das Verständnis der KI alles zu beherrschen, droht traditionelle Ansätze des Deep Learning und des kritischen Denkens zu untergraben, wenn wir nicht aufpassen. Wenn generative KI alles auf den ersten Blick verständlich erscheinen lässt, wird der entscheidende Kampf, der echtes Lernen oft begleitet, umgangen.
Die Auswirkungen auf das kollaborative Lernen sind ebenso besorgniserregend. Die Schüler beginnen, die gemeinsame Problemlösung im Team zugunsten der effizienteren, aber isolierten Ansätze generativer KI aufzugeben. Gruppen-Brainstorming und gegenseitiges Lernen – seit jeher entscheidende Komponenten für die Entwicklung sowohl sozialer als auch kognitiver Fähigkeiten – weichen der Eingabe von Stichworten sowie der Beratung und Unterstützung durch KI.
Dieser Wandel erfordert neue Ansätze hinsichtlich unserer Sichtweise auf die sozialen Aspekte der Bildung, die traditionell Innovation, Kreativität und emotionale Intelligenz gefördert hat.
Am beunruhigendsten ist jedoch vielleicht die sich abzeichnende Gefahr, dass Schüler:innen komplexe Herausforderungen der realen Welt auf Aufgaben reduzieren, die lediglich optimiert werden müssen, anstatt sie als Probleme zu betrachten, die menschliches Nachdenken und ein differenziertes Verständnis erfordern.
Wenn Schüler beginnen, die Realität durch die Brille der Prompting-Technik zu betrachten, besteht die Gefahr einer grundlegenden Veränderung in der Art und Weise, wie künftige Generationen an die Problemlösung herangehen.
Dies wirft auch Fragen hinsichtlich des Vertrauens in Wissen auf. Da KI-Systeme zunehmend konsistent klingende Antworten liefern, könnten Schüler anfangen, an menschlicher Fachkompetenz zu zweifeln, insbesondere wenn diese im Widerspruch zu den Ergebnissen der KI steht.
Der Druck, mit der scheinbar makellosen Leistung der KI mithalten zu müssen, könnte eine neue Form des Perfektionismus begünstigen, die Kreativität und Risikobereitschaft hemmt. Ganz zu schweigen von den Problemen, die dies hinsichtlich der fachlichen Autorität im Klassenzimmer und darüber hinaus mit sich bringt.Die Köpfe von morgen formen
Diese Veränderungen bedeuten sicherlich mehr als nur eine Umstellung der pädagogischen Methoden – sie deuten auf eine grundlegende Neugestaltung der Art und Weise hin, wie künftige Generationen denken, lernen und Probleme lösen werden. Die eigentliche Umwälzung liegt nicht darin, wie wir unterrichten, sondern darin, wie der Geist unserer Schüler durch die ständige Interaktion mit künstlicher Intelligenz neu geprägt wird.
Traditionelle Bildungshierarchien geraten ins Wanken, da Studierende zunehmend auf KI zurückgreifen, um Antworten zu finden, bevor sie ihre Professoren oder Kommilitonen um Rat fragen. Dieser Wandel wirkt sich nicht nur auf die Dynamik im Unterricht aus. Er verändert grundlegend, wie Wissen validiert und Autorität in Bildungseinrichtungen etabliert wird.
Folglich ist die Herausforderung für Pädagogen komplexer als die bloße Anpassung von Unterrichtsmethoden – sie erfordert, diese tiefergehenden kognitiven und verhaltensbezogenen Veränderungen zu verstehen und darauf einzugehen. Wir müssen sicherstellen, dass wir, wenn wir die Vorteile generativer KI nutzen, nicht versehentlich zentrale Aspekte des Lernens und der Entwicklung gefährden, die seit Jahrhunderten im Mittelpunkt der Bildung stehen. Oder zumindest sollte es, falls wir dies tun, eine bewusste und wohlüberlegte Entscheidung sein. Eine Entscheidung, die von Pädagogen getroffen wird.
Die heutigen pädagogischen Praktiken prägen nicht nur die unmittelbaren Lernergebnisse, sondern auch die kognitive Struktur künftiger Generationen. Da künstliche Intelligenz zunehmend in Bildungsprozesse integriert wird, müssen wir sorgfältig abwägen, wie sich diese Technologie nicht nur auf das auswirkt, was Schüler lernen, sondern auch darauf, wie sie denken, interagieren und die Welt um sich herum verstehen.
Die Entscheidungen, die wir heute in Bezug auf KI im Bildungswesen treffen, werden noch sehr, sehr lange nachwirken. Ob wir hier die richtigen (oder falschen) Entscheidungen treffen, wird die kollektive intellektuelle Leistungsfähigkeit der Gesellschaft über Generationen hinweg beeinflussen.
Quelle: https://jeppestricker.substack.com/p/the-silent-revolution-how-ai-is-slowly
Kritisches Denken ohne Fachwissen ist kein Denken. Es ist Raten mit Methode.
Ein weiterer, für mich wichtiger Text kommt von Barbara Geyer aus dem österreichischen Burgenland. Letztlich begründet sie, warum kritisches Denken nicht ohne Anbindung an konkrete Wissensdomänen funktionieren kann.
Die britische Bildungsforscherin Daisy Christodoulou beschreibt das Problem seit 2014. Kritisches Denken ist keine Generalkompetenz, die man einmal lernt und dann auf beliebige Inhalte anwenden kann. Es ist gebunden an Wissen über den konkreten Gegenstand. Ohne dieses Wissen greifen die besten Checklisten ins Leere. Kritisches Denken ohne Fachwissen ist kein Denken. Es ist Raten mit Methode.
Quelle: https://barbarageyer.substack.com/p/ki-fachkompetenzschwelle
Das ist letztlich Wasser auf meinen Mühlen, welche Rolle KI im Bildungssystem für mich eigentlich einnehmen sollte.
- Was muss ich können, bevor ich ein Sprachmodell sinnvoll für meinen Lernprozess nutzen kann?
- Wenn ich das kann: Wobei kann mir das Sprachmodell konkret helfen?
Wo ich mir KI im Bildungssystem gut vorstellen kann
Zurzeit bin ich mit meinen Gedanken eher in der aboluten Minderheit, weil sehr viel Hoffnung auf KI im Bildungssystem gesetzt wird. Bei aller kritischen Betrachtung: Ich habe bereits Anwendungsfälle formuliert, in denen ich KI als gutes Werkzeug wahrnehme. Ich möchte heute noch den Bereich der Inklusion hinzufügen – ich sehe in KI viele Potential, Kommunikation inklusiver zu machen und Sprachbarrieren zu überwinden.
Vorsorgeprodukte von der privaten Krankenversicherung?
Mein privater Krankenversicherer rief mich kürzlich an, ob ich nicht Interesse daran hätte, meine unweigerliche Beitragserhöhung im Alter durch ein Produkt abzusichern und für meine gesamte Pensionszeit einen verminderten Beitrag zu zahlen.
Der Deal sieht etwa so aus:
- ich zahle jetzt 15 Jahre lang 100,- Euro mehr Krankenversicherungsbeitrag (netto, unter Berücksichtigung der Steuerfreiheit von Vorsorgeprodukten).
- dafür mindert sich mein Beitrag für die gesamte verbleibende Lebensspanne um 150,- Euro monatlich.
Hört sich erstmal gut an. Rechnen wir das doch mal.
Wie viel Kapital kann ich in 15 Jahren mit 100 Euro/Monat bei unterschiedlicher Verzinsung aufbauen?
Wir nutzen dazu ein Onlinetool, welches nach anerkannten Standards arbeitet und nehmen eine jahresweise Zinsgutschrift an.
Das aufgebaute Kapital bei unterschiedlichen Zinssätzen:
- bei 2% : 20752,- Euro
- bei 4% : 24028,- Euro
- bei 6% : 27931,- Euro
Wie lange kann ich aus dem aufgebauten Kapitalstock monatlich 150,- Euro entnehmen?
Ich nutze das gleiche Onlinetool wie bei der Kapitalberechnung:
- bei 2% : 13,1 Jahre (da wäre ich 80 Jahre alt)
- bei 4% : 18,9 Jahre (da wäre ich 86 Jahre alt)
- bei 6% : 40,6 Jahre (da wäre ich 107 Jahre alt)
Die durchschnittliche Lebenserwartung eines Mannes beträgt momentan 78 Jahre, d.h. mit einer Verzinsung unterhalb von 2% ist die eigene Geldanlage dem Produkt des Krankenversicherers statistisch(!) überlegen. Sterbe ich früher: Noch besser für den Krankenversicherer, da die Anlage ja an den Versicherungsvertrag gebunden ist, der dann erlischt.
Das Produkt ist zumindest im statistischen Mittel also eine Verarschung des Kunden – und des Steuerzahlers, der diesen Irrsinn durch die Steuerfreiheit auch noch mitfinanziert – ansonsten wäre die Nettozahlung noch höher als 100,- Euro. Es wird aber Fälle geben (sehr wenige), in denen sich sowas rechnet.
Gegenrechnung mit ETF-Sparplan
Nehmen wir mal einen langweiligen ETF, der den DAX abbildet (7%) und machen einen Spar- und Entnahmeplan. Auf Basis von historischen Daten kommt da raus:
31110,- Euro und man kann endlos(sic!) 150,- Euro monatlich entnehmen (innerhalb der statischen Lebenserwartung sogar über 300,- Euro monatlich).
Und zu keiner Zeit zahlt in dem Bereich irgendwer Kapitalertragssteuer, was man euch gerne als Vorteil verkauft (die schlägt erst bei 1000,- Euro Zinsen/Jahr bei Unverheirateten zu).
Ungefähr in solchen Bereichen dürfte sich auch die Gewinnspanne des Versicherers bewegen, weil der das gerne mit langfristigen Staatsanleihen absichert, die momentan bei rund 3–4% liegen.
Fazit
- Lasst das!
- Lasst auch Riesterverträge (rechnet mal trotz Zulagen gegen ETF-Sparplan)
- Habt ihr Schulden: Tilgt diese lieber mit dem Geld, was ihr über habt (da seid ihr immer über 2% Gewinn)
AI at school? Is it just there and do we have to deal with it?
Preliminary remarks for this english version
Although this article takes a critical look at the use of AI in schools, I have used an AI tool „made in Germany“ for the translation (https://www.deepl.com). it’s not my style and violates my idea of fluent english.
On the basis of these thoughts, I sometimes face strong criticism from the German education community or even the education administration for which I work – it seems to me, that I would break (male) technic toys or spoil them at least.
Introduction
Not a day goes by on social media without new, cool tips on using AI in the classroom. For three years now, I’ve been giving talks on AI to all kinds of groups and committees, which has increasingly turned into a very critical view of the topic.
1. AI applications that generate language prevent learning processes
Various researchers and experts point to serious shortcomings in language models, which form the backbone of many educational offerings. The effects on learning processes are also being described with increasing criticism. Significantly, the most nuanced criticism almost always comes from people with a background in computer science. Advocates of the use of language models in the teaching context always argue that it always depends on the type of use. I am not convinced of this.
As an example, I would like to refer to a recent study by Rainer Mühlhoff and Marte Henningsen, who took a closer look at a Fobizz tool for the automatic assessment of homework. There are several of these tools or offerings on the German market, even those that have received start-up awards. What they have in common is that they are based on the same IT technology and are explicitly aimed at teachers. The study’s base of data is relatively small – unfortunately, this is the case with many studies in the education sector. Here are some excerpts from the results:
- „Both the suggested overall grade and the qualitative feedback varied significantly between different assessment runs of the same submission. This volatility poses a serious problem, as teachers relying on the tool could unknowingly award ‘cherry-picked’ and potentially unfair grades and feedback.§
- „Even with full implementation of the suggestions for improvement, it was not possible to submit a “perfect” – i.e. no longer objectionable – submission. A near-perfect score was only achieved by revising the solution with ChatGPT, which signals to students that they need to rely on AI support to achieve a top score.“
- „The tool has fundamental shortcomings, several of which the study classifies as “fatal obstacles to use”. It is pointed out that most of the observed shortcomings are due to the inherent technical characteristics and limitations of large language models (LLMs). For these reasons, a quick technical solution to the shortcomings is not to be expected.“
The study refers to the use of language models by teachers. This should a use by experts with corresponding experience and expertise in the implementation of assessments.
The largely professionally unreflected demand for the nationwide provision of so-called AI tools can be found both in the press and in associations. Our media center actually provides teachers at schools run by the district with such access. I would now consider linking this provision to prior mandatory training and awareness-raising.
With regard to use by students, Jeppe Klitgaard Stricker has made some remarkable theses and observations for me:
- Intellectual mirroring (students unconsciously adopting AI speech patterns)
- Digital dependency disorder (students panic when AI tools are unavailable)
- The illusion of mastery (students thinking they understand because AI explained it)
- Collaborative intelligence decay (students abandoning human brainstorming when AI is faster)
- Reality-prompt confusion (students viewing real-life challenges as prompts to optimize)
- Knowledge confidence crisis (students doubting human wisdom vs AI certainty)
- AI-induced perfectionism (the pressure to match AI’s flawless outputs)
I would like to replace the word “students” with the word “learners” here, because many of the points are likely to apply to adults as well. This perspective is quite new to me, because up to now I have tended to take a cognitive-theoretical approach in my criticism of the use of language models in the classroom:
In a nutshell: Our working memory contains what we are currently thinking. Among other things, it is fed by what we have transferred to our long-term memory over the course of our lives. The degree of networking of this knowledge in long-term memory is greater for experienced people (experts) than for inexperienced people (novices). The output of language models overloads the capacity of the working memory of novices much faster than that of experts, because there is less compensation through pre-networked knowledge from long-term memory.
Of course, AI can be used at any stage, e.g. when writing seminar papers. However, the extent to which this makes sense for novices with a very heterogeneous degree of networking – which is how learning groups are composed – in long-term memory must be examined very carefully.
Taking into account the previous premises, language models can only be used to promote learning if the novices already have a certain amount of networked prior knowledge. For me, it would be irresponsible to focus teaching solely on the level of use and operation.
Experts, on the other hand, are probably much better at evaluating the output of language models, but without a basic understanding of their function, they cannot use them in a reflective manner. Who, for example, has the same text evaluated several times by an AI tool and then compares the outputs with each other, as was done in the study cited? What’s more, the marketing promise of time savings quickly becomes obsolete. Experts also tend to be „susceptible“ to the mechanisms formulated by Stricker.
2. Products of AI applications are the new plastic and contaminate the communication space of the Internet
Linux Lee, among others, came up with the idea of seeing generative AI products as analogous to plastic made from crude oil. Just as the petroleum product fills our tangible world, the products of generative AI (music, images, videos, texts, etc.) fill the communicative space of the internet.
In the course of sustainability thinking, plastic quickly falls into a negative corner, but as a material it is indispensable in many areas of modern society. One major difference is what can be done with existing plastic. In principle, plastic made from crude oil can be recycled, but this is neither economically viable nor are there any corresponding control mechanisms in the production and recycling chain that would make this possible. With a well-structured plastic cycle, multiple use of the material is conceivable in principle without any major loss of quality.
The more products of generative AI enter the communication space of the internet, the more likely it is that they themselves will become the actual training basis for AI. This is referred to as the „rebound effect“. More or less humorously, the thesis was formulated in relation to the education system that at some point a „teacher AI“ will evaluate the „AI homework“ of the students. Ironically, the study by Mühlhoff and Henningsen provides „initial evidence“ of precisely this. In contrast to plastic made from crude oil, the resource „product of a generative AI“ is not really limited if, for example, renewable energy is used to produce it. This means that there is no real interest or even a need to regulate these products. The critical view of AI in an educational context alone is definitely associated with hostility towards innovation.
This in turn has to do with the fact that AI is often not viewed in a differentiated way: Using similar computer science mechanisms, AI can generate language or calculate protein structures very efficiently in the development of medicines. These can become sustainable products, as is also possible with plastic made from crude oil. Both „are“ AI.
I would evaluate the latter use of AI very differently, as the resulting product is effective on a completely different level. I miss this difference in perspective in the social discussion. In the education sector in particular, the topic is usually saturated with marketing and buzzwords and usually reaches a target group that is not sufficiently educated in information technology.
Yes, what can you do? AI is here to stay!
… and doesn’t go away again. In my last graduation speech at my son’s school, I described how being able to choose is a luxury situation. In fact, you can choose not to use language models in class. Personally, I find it difficult to give longer text productions as homework – I prefer to do this in class, e.g. in combination with collaborative writing tools. The resulting products are already an independent achievement. An orthographic and grammatical „follow-up check“ using ki-based tools works very well. Especially in the intermediate level, the skills for evaluating „AI interventions“ in this area should, in principle, have already occurred in school life and be „pre-networked“ in long-term memory – actually.
One of the main tasks of education will be how to communicate that certain things should be mastered before AI is used – precisely because the machine can do it so much better. And not just for students, but above all for us teachers.
When we think about this, we very quickly end up with structural considerations about the german education system itself.
„Oh, Luise, stop … that’s too broad a field.“ (Theodor Fontane, Effi Briest, last sentence)
Warum lohnt sich die Anstrengung, KI nicht zu nutzen?
Philippe Wampfler denkt in seinem letzten Blogartikel darüber nach, wie lange es noch möglich sein wird, KI zur Erstellung von Texten in der Schule nicht zu nutzen bzw. wie lange es dafür noch gute Argumente gibt . Er nutzt dafür eine Analogie: Niemand würde heute auf die Idee kommen, im Alltag Sahne mit der Hand zu schlagen, weil mittlerweile elektrische Rührgeräte zur Verfügung stehen. Irgendwann wird niemand mehr auf Idee kommen, Texte selbst zu verfassen, weil KI-Modelle immer besser und normaler werden.
Ich habe Schwierigkeiten mit Analogien aus der „analogen Welt“ in Bezug auf den gesellschaftlichen Wandel durch die digitale Welt. Ob ich Sahne mit einer Gabel oder einem Rührgerät schlage, ist bezogen auf das Produkt, was dabei entsteht, letztlich nicht entscheidend. Es kommt immer mehr oder weniger steif geschlagene Sahne dabei heraus. Die Konsistenz der Sahne hat darüberhinaus überhaupt keine Wirkung nach außen – KI hingegen das Potential mit Gesellschaft in vielfältiger Weise zu wechselwirken.
Was an Ausgaben aus einem Sprachmodell kommt, ist mehr oder minder zufällig. Dass mir ein Sprachmodell einen Text korrekt zusammenfasst, hängt letztlich von statistischen Berechnungen ab. Bei einem Scanner oder Kopierer würden wir nicht akzeptieren, wenn es zu zufälligen Ausgaben kommt. Bei Sprachmodellen ist das prinzipbedingt so und wir akzeptieren es. Man kann zwar in Grenzen Ausgaben beeinflussen, aber hätte dann ggf. den Text in der gleichen Zeit selbst verfasst, die man für das Finden eines geeigneten Prompts benötigt.
Niemand löst das mit KI erstellte Arbeitsblatt besser als KI. Niemand beantwortet KI-generierte Fragen zu einem Video besser als KI. Das wissen auch Schüler:innen.
Es gibt die Hoffnung, dass Sprachmodelle besser werden könnten – dazu müsste meiner Meinung nach aber ein technisch gänzlich neuer Ansatz entwickelt werden – der bisherige Transformeransatz hat prinzipbedingte Grenzen – schon allein, weil das zur Verfügung stehende Trainingsmaterial limitiert ist und darüberhinaus immer mehr KI-generierte Texte das Netz fluten, die dann ihrerseits in einer Feedbackschleife ihren Weg zurück in die großen Modelle finden.
Mich treibt eher diese Frage um:
Was muss man eigentlich können, bevor man ein Sprachmodell sinnvoll nutzen kann?
Um Produkte für die Schule zu generieren, muss man eigentlich in vielen Fällen gar nicht so viel können, aber ist das letztlich für das Lernen bzw. den Kompetenzerwerb dann hilfreich?
Ich bilde mir mittlerweile ein, KI-generierte Texte deutlich besser identifizieren zu können, weil sie u.a. immer einen hineintrainierten Bias mitbringen.
Ich sehe Sprachmodelle eher da, wo es weniger um Lernen oder Wissen geht.
- Rechtschreibkorrektur
- Erstellung von entseelten Texten (Gutachten, Anträge, Vermerke, Produktbeschreibungen…)
- Dokumentenmanagement (Suchhilfe)
- automatische Übersetzung entseelter Texte (bei z.B. Dialogen oder literarischen Texten geht das bisher m.E. noch nicht gut)
- ggf. Erstellung von Übungsmaterial (wenn den Übenden keine KI zur Verfügung steht – s.o.)
Für Digitalkonzerne sind Sprachmodelle vor allem ein großes Geschenk, um an Inhalte jedweder Art zu kommen, ohne dass die meisten Benutzer:innen das in irgendeiner Form problematisch finden. Und das ist nur eine der weiter oben angedeuteten Wechselwirkungen. Mit Sahne erreicht man das nicht. Daher ist für mich diese Analogie nur auf den ersten Blick einleuchtend.