Ich habe erstmalig einen für mich sehr wichtigen Text von Jeppe Klitgaard Stricker aus dem Englischen mit Hilfe von https://www.deepl.com
Herausforderungen bei der Nutzung von Sprachmodellen im Bildungssystem
Ich habe erstmalig einen für mich sehr wichtigen Text von Jeppe Klitgaard Stricker aus dem Englischen mit Hilfe von https://www.deepl.com auf Deutsch übersetzt. Dabei habe ich nur einige kleinere Veränderungen vorgenommen. Ich nutze den ursprünglichen LinkedIn-Post von Jeppe in meinen Grundsatzvorträgen zu KI (ab Folie 47), in den er in diesem längeren Text weiter ausgeführt hat. Jeppe ist seit über zwanzig Jahren beruflich in der universitären Bildung unterwegs und kommt aus Dänemark.
Die stille Revolution: Wie KI das Hochschulwesen auf den Kopf stellt
Wir erleben derzeit tiefgreifende Veränderungen in der Art und Weise, wie Schüler und Studenten denken und lernen, doch viele dieser Veränderungen werden in Bildungskreisen nach wie vor kaum thematisiert. Während sich Debatten über KI im Bildungswesen oft auf akademische Integrität und Bewertungsmethoden konzentrieren, finden bereits tiefgreifende kognitive und verhaltensbezogene Veränderungen statt. Darüber müssen wir sprechen.
Man sollte im Blick haben, dass Studierende möglicherweise bereits unbewusst die charakteristischen Kommunikationsmuster der KI übernehmen – eine Form der intellektuellen Spiegelung, die in ungezwungenen Gesprächen beginnt und sich dann in den akademischen Diskurs einschleicht. Dabei geht es nicht nur um das Nachahmen von Sprache; vielmehr handelt es sich um eine potenzielle Veränderung in der Art und Weise, wie Studierende Ideen verarbeiten und formulieren.
Noch beunruhigender ist vielleicht, dass wir bereits erste Anzeichen dessen beobachten, was man als „digitale Abhängigkeitsstörung“ bezeichnen könnte – Schüler:innen, die echte Angstgefühle verspüren, wenn generative KI-Tools vorübergehend nicht verfügbar sind.Die gesellschaftlichen Kosten
Diese Abhängigkeit steht im Zusammenhang mit einem umfassenderen Phänomen, bei dem sich Studierende zunehmend als Fachexperten betrachten, nur weil generative KI komplexe Inhalte auf scheinbar leicht verständliche Weise präsentiert hat.
Die Illusion, durch das Verständnis der KI alles zu beherrschen, droht traditionelle Ansätze des Deep Learning und des kritischen Denkens zu untergraben, wenn wir nicht aufpassen. Wenn generative KI alles auf den ersten Blick verständlich erscheinen lässt, wird der entscheidende Kampf, der echtes Lernen oft begleitet, umgangen.
Die Auswirkungen auf das kollaborative Lernen sind ebenso besorgniserregend. Die Schüler beginnen, die gemeinsame Problemlösung im Team zugunsten der effizienteren, aber isolierten Ansätze generativer KI aufzugeben. Gruppen-Brainstorming und gegenseitiges Lernen – seit jeher entscheidende Komponenten für die Entwicklung sowohl sozialer als auch kognitiver Fähigkeiten – weichen der Eingabe von Stichworten sowie der Beratung und Unterstützung durch KI.
Dieser Wandel erfordert neue Ansätze hinsichtlich unserer Sichtweise auf die sozialen Aspekte der Bildung, die traditionell Innovation, Kreativität und emotionale Intelligenz gefördert hat.
Am beunruhigendsten ist jedoch vielleicht die sich abzeichnende Gefahr, dass Schüler:innen komplexe Herausforderungen der realen Welt auf Aufgaben reduzieren, die lediglich optimiert werden müssen, anstatt sie als Probleme zu betrachten, die menschliches Nachdenken und ein differenziertes Verständnis erfordern.
Wenn Schüler beginnen, die Realität durch die Brille der Prompting-Technik zu betrachten, besteht die Gefahr einer grundlegenden Veränderung in der Art und Weise, wie künftige Generationen an die Problemlösung herangehen.
Dies wirft auch Fragen hinsichtlich des Vertrauens in Wissen auf. Da KI-Systeme zunehmend konsistent klingende Antworten liefern, könnten Schüler anfangen, an menschlicher Fachkompetenz zu zweifeln, insbesondere wenn diese im Widerspruch zu den Ergebnissen der KI steht.
Der Druck, mit der scheinbar makellosen Leistung der KI mithalten zu müssen, könnte eine neue Form des Perfektionismus begünstigen, die Kreativität und Risikobereitschaft hemmt. Ganz zu schweigen von den Problemen, die dies hinsichtlich der fachlichen Autorität im Klassenzimmer und darüber hinaus mit sich bringt.Die Köpfe von morgen formen
Diese Veränderungen bedeuten sicherlich mehr als nur eine Umstellung der pädagogischen Methoden – sie deuten auf eine grundlegende Neugestaltung der Art und Weise hin, wie künftige Generationen denken, lernen und Probleme lösen werden. Die eigentliche Umwälzung liegt nicht darin, wie wir unterrichten, sondern darin, wie der Geist unserer Schüler durch die ständige Interaktion mit künstlicher Intelligenz neu geprägt wird.
Traditionelle Bildungshierarchien geraten ins Wanken, da Studierende zunehmend auf KI zurückgreifen, um Antworten zu finden, bevor sie ihre Professoren oder Kommilitonen um Rat fragen. Dieser Wandel wirkt sich nicht nur auf die Dynamik im Unterricht aus. Er verändert grundlegend, wie Wissen validiert und Autorität in Bildungseinrichtungen etabliert wird.
Folglich ist die Herausforderung für Pädagogen komplexer als die bloße Anpassung von Unterrichtsmethoden – sie erfordert, diese tiefergehenden kognitiven und verhaltensbezogenen Veränderungen zu verstehen und darauf einzugehen. Wir müssen sicherstellen, dass wir, wenn wir die Vorteile generativer KI nutzen, nicht versehentlich zentrale Aspekte des Lernens und der Entwicklung gefährden, die seit Jahrhunderten im Mittelpunkt der Bildung stehen. Oder zumindest sollte es, falls wir dies tun, eine bewusste und wohlüberlegte Entscheidung sein. Eine Entscheidung, die von Pädagogen getroffen wird.
Die heutigen pädagogischen Praktiken prägen nicht nur die unmittelbaren Lernergebnisse, sondern auch die kognitive Struktur künftiger Generationen. Da künstliche Intelligenz zunehmend in Bildungsprozesse integriert wird, müssen wir sorgfältig abwägen, wie sich diese Technologie nicht nur auf das auswirkt, was Schüler lernen, sondern auch darauf, wie sie denken, interagieren und die Welt um sich herum verstehen.
Die Entscheidungen, die wir heute in Bezug auf KI im Bildungswesen treffen, werden noch sehr, sehr lange nachwirken. Ob wir hier die richtigen (oder falschen) Entscheidungen treffen, wird die kollektive intellektuelle Leistungsfähigkeit der Gesellschaft über Generationen hinweg beeinflussen.
Quelle: https://jeppestricker.substack.com/p/the-silent-revolution-how-ai-is-slowly
Kritisches Denken ohne Fachwissen ist kein Denken. Es ist Raten mit Methode.
Ein weiterer, für mich wichtiger Text kommt von Barbara Geyer aus dem österreichischen Burgenland. Letztlich begründet sie, warum kritisches Denken nicht ohne Anbindung an konkrete Wissensdomänen funktionieren kann.
Die britische Bildungsforscherin Daisy Christodoulou beschreibt das Problem seit 2014. Kritisches Denken ist keine Generalkompetenz, die man einmal lernt und dann auf beliebige Inhalte anwenden kann. Es ist gebunden an Wissen über den konkreten Gegenstand. Ohne dieses Wissen greifen die besten Checklisten ins Leere. Kritisches Denken ohne Fachwissen ist kein Denken. Es ist Raten mit Methode.
Quelle: https://barbarageyer.substack.com/p/ki-fachkompetenzschwelle
Das ist letztlich Wasser auf meinen Mühlen, welche Rolle KI im Bildungssystem für mich eigentlich einnehmen sollte.
- Was muss ich können, bevor ich ein Sprachmodell sinnvoll für meinen Lernprozess nutzen kann?
- Wenn ich das kann: Wobei kann mir das Sprachmodell konkret helfen?
Wo ich mir KI im Bildungssystem gut vorstellen kann
Zurzeit bin ich mit meinen Gedanken eher in der aboluten Minderheit, weil sehr viel Hoffnung auf KI im Bildungssystem gesetzt wird. Bei aller kritischen Betrachtung: Ich habe bereits Anwendungsfälle formuliert, in denen ich KI als gutes Werkzeug wahrnehme. Ich möchte heute noch den Bereich der Inklusion hinzufügen – ich sehe in KI viele Potential, Kommunikation inklusiver zu machen und Sprachbarrieren zu überwinden.
Vorsorgeprodukte von der privaten Krankenversicherung?
Mein privater Krankenversicherer rief mich kürzlich an, ob ich nicht Interesse daran hätte, meine unweigerliche Beitragserhöhung im Alter durch ein Produkt abzusichern und für meine gesamte Pensionszeit einen verminderten Beitrag zu zahlen.
Der Deal sieht etwa so aus:
- ich zahle jetzt 15 Jahre lang 100,- Euro mehr Krankenversicherungsbeitrag (netto, unter Berücksichtigung der Steuerfreiheit von Vorsorgeprodukten).
- dafür mindert sich mein Beitrag für die gesamte verbleibende Lebensspanne um 150,- Euro monatlich.
Hört sich erstmal gut an. Rechnen wir das doch mal.
Wie viel Kapital kann ich in 15 Jahren mit 100 Euro/Monat bei unterschiedlicher Verzinsung aufbauen?
Wir nutzen dazu ein Onlinetool, welches nach anerkannten Standards arbeitet und nehmen eine jahresweise Zinsgutschrift an.
Das aufgebaute Kapital bei unterschiedlichen Zinssätzen:
- bei 2% : 20752,- Euro
- bei 4% : 24028,- Euro
- bei 6% : 27931,- Euro
Wie lange kann ich aus dem aufgebauten Kapitalstock monatlich 150,- Euro entnehmen?
Ich nutze das gleiche Onlinetool wie bei der Kapitalberechnung:
- bei 2% : 13,1 Jahre (da wäre ich 80 Jahre alt)
- bei 4% : 18,9 Jahre (da wäre ich 86 Jahre alt)
- bei 6% : 40,6 Jahre (da wäre ich 107 Jahre alt)
Die durchschnittliche Lebenserwartung eines Mannes beträgt momentan 78 Jahre, d.h. mit einer Verzinsung unterhalb von 2% ist die eigene Geldanlage dem Produkt des Krankenversicherers statistisch(!) überlegen. Sterbe ich früher: Noch besser für den Krankenversicherer, da die Anlage ja an den Versicherungsvertrag gebunden ist, der dann erlischt.
Das Produkt ist zumindest im statistischen Mittel also eine Verarschung des Kunden – und des Steuerzahlers, der diesen Irrsinn durch die Steuerfreiheit auch noch mitfinanziert – ansonsten wäre die Nettozahlung noch höher als 100,- Euro. Es wird aber Fälle geben (sehr wenige), in denen sich sowas rechnet.
Gegenrechnung mit ETF-Sparplan
Nehmen wir mal einen langweiligen ETF, der den DAX abbildet (7%) und machen einen Spar- und Entnahmeplan. Auf Basis von historischen Daten kommt da raus:
31110,- Euro und man kann endlos(sic!) 150,- Euro monatlich entnehmen (innerhalb der statischen Lebenserwartung sogar über 300,- Euro monatlich).
Und zu keiner Zeit zahlt in dem Bereich irgendwer Kapitalertragssteuer, was man euch gerne als Vorteil verkauft (die schlägt erst bei 1000,- Euro Zinsen/Jahr bei Unverheirateten zu).
Ungefähr in solchen Bereichen dürfte sich auch die Gewinnspanne des Versicherers bewegen, weil der das gerne mit langfristigen Staatsanleihen absichert, die momentan bei rund 3–4% liegen.
Fazit
- Lasst das!
- Lasst auch Riesterverträge (rechnet mal trotz Zulagen gegen ETF-Sparplan)
- Habt ihr Schulden: Tilgt diese lieber mit dem Geld, was ihr über habt (da seid ihr immer über 2% Gewinn)
AI at school? Is it just there and do we have to deal with it?
Preliminary remarks for this english version
Although this article takes a critical look at the use of AI in schools, I have used an AI tool „made in Germany“ for the translation (https://www.deepl.com). it’s not my style and violates my idea of fluent english.
On the basis of these thoughts, I sometimes face strong criticism from the German education community or even the education administration for which I work – it seems to me, that I would break (male) technic toys or spoil them at least.
Introduction
Not a day goes by on social media without new, cool tips on using AI in the classroom. For three years now, I’ve been giving talks on AI to all kinds of groups and committees, which has increasingly turned into a very critical view of the topic.
1. AI applications that generate language prevent learning processes
Various researchers and experts point to serious shortcomings in language models, which form the backbone of many educational offerings. The effects on learning processes are also being described with increasing criticism. Significantly, the most nuanced criticism almost always comes from people with a background in computer science. Advocates of the use of language models in the teaching context always argue that it always depends on the type of use. I am not convinced of this.
As an example, I would like to refer to a recent study by Rainer Mühlhoff and Marte Henningsen, who took a closer look at a Fobizz tool for the automatic assessment of homework. There are several of these tools or offerings on the German market, even those that have received start-up awards. What they have in common is that they are based on the same IT technology and are explicitly aimed at teachers. The study’s base of data is relatively small – unfortunately, this is the case with many studies in the education sector. Here are some excerpts from the results:
- „Both the suggested overall grade and the qualitative feedback varied significantly between different assessment runs of the same submission. This volatility poses a serious problem, as teachers relying on the tool could unknowingly award ‘cherry-picked’ and potentially unfair grades and feedback.§
- „Even with full implementation of the suggestions for improvement, it was not possible to submit a “perfect” – i.e. no longer objectionable – submission. A near-perfect score was only achieved by revising the solution with ChatGPT, which signals to students that they need to rely on AI support to achieve a top score.“
- „The tool has fundamental shortcomings, several of which the study classifies as “fatal obstacles to use”. It is pointed out that most of the observed shortcomings are due to the inherent technical characteristics and limitations of large language models (LLMs). For these reasons, a quick technical solution to the shortcomings is not to be expected.“
The study refers to the use of language models by teachers. This should a use by experts with corresponding experience and expertise in the implementation of assessments.
The largely professionally unreflected demand for the nationwide provision of so-called AI tools can be found both in the press and in associations. Our media center actually provides teachers at schools run by the district with such access. I would now consider linking this provision to prior mandatory training and awareness-raising.
With regard to use by students, Jeppe Klitgaard Stricker has made some remarkable theses and observations for me:
- Intellectual mirroring (students unconsciously adopting AI speech patterns)
- Digital dependency disorder (students panic when AI tools are unavailable)
- The illusion of mastery (students thinking they understand because AI explained it)
- Collaborative intelligence decay (students abandoning human brainstorming when AI is faster)
- Reality-prompt confusion (students viewing real-life challenges as prompts to optimize)
- Knowledge confidence crisis (students doubting human wisdom vs AI certainty)
- AI-induced perfectionism (the pressure to match AI’s flawless outputs)
I would like to replace the word “students” with the word “learners” here, because many of the points are likely to apply to adults as well. This perspective is quite new to me, because up to now I have tended to take a cognitive-theoretical approach in my criticism of the use of language models in the classroom:
In a nutshell: Our working memory contains what we are currently thinking. Among other things, it is fed by what we have transferred to our long-term memory over the course of our lives. The degree of networking of this knowledge in long-term memory is greater for experienced people (experts) than for inexperienced people (novices). The output of language models overloads the capacity of the working memory of novices much faster than that of experts, because there is less compensation through pre-networked knowledge from long-term memory.
Of course, AI can be used at any stage, e.g. when writing seminar papers. However, the extent to which this makes sense for novices with a very heterogeneous degree of networking – which is how learning groups are composed – in long-term memory must be examined very carefully.
Taking into account the previous premises, language models can only be used to promote learning if the novices already have a certain amount of networked prior knowledge. For me, it would be irresponsible to focus teaching solely on the level of use and operation.
Experts, on the other hand, are probably much better at evaluating the output of language models, but without a basic understanding of their function, they cannot use them in a reflective manner. Who, for example, has the same text evaluated several times by an AI tool and then compares the outputs with each other, as was done in the study cited? What’s more, the marketing promise of time savings quickly becomes obsolete. Experts also tend to be „susceptible“ to the mechanisms formulated by Stricker.
2. Products of AI applications are the new plastic and contaminate the communication space of the Internet
Linux Lee, among others, came up with the idea of seeing generative AI products as analogous to plastic made from crude oil. Just as the petroleum product fills our tangible world, the products of generative AI (music, images, videos, texts, etc.) fill the communicative space of the internet.
In the course of sustainability thinking, plastic quickly falls into a negative corner, but as a material it is indispensable in many areas of modern society. One major difference is what can be done with existing plastic. In principle, plastic made from crude oil can be recycled, but this is neither economically viable nor are there any corresponding control mechanisms in the production and recycling chain that would make this possible. With a well-structured plastic cycle, multiple use of the material is conceivable in principle without any major loss of quality.
The more products of generative AI enter the communication space of the internet, the more likely it is that they themselves will become the actual training basis for AI. This is referred to as the „rebound effect“. More or less humorously, the thesis was formulated in relation to the education system that at some point a „teacher AI“ will evaluate the „AI homework“ of the students. Ironically, the study by Mühlhoff and Henningsen provides „initial evidence“ of precisely this. In contrast to plastic made from crude oil, the resource „product of a generative AI“ is not really limited if, for example, renewable energy is used to produce it. This means that there is no real interest or even a need to regulate these products. The critical view of AI in an educational context alone is definitely associated with hostility towards innovation.
This in turn has to do with the fact that AI is often not viewed in a differentiated way: Using similar computer science mechanisms, AI can generate language or calculate protein structures very efficiently in the development of medicines. These can become sustainable products, as is also possible with plastic made from crude oil. Both „are“ AI.
I would evaluate the latter use of AI very differently, as the resulting product is effective on a completely different level. I miss this difference in perspective in the social discussion. In the education sector in particular, the topic is usually saturated with marketing and buzzwords and usually reaches a target group that is not sufficiently educated in information technology.
Yes, what can you do? AI is here to stay!
… and doesn’t go away again. In my last graduation speech at my son’s school, I described how being able to choose is a luxury situation. In fact, you can choose not to use language models in class. Personally, I find it difficult to give longer text productions as homework – I prefer to do this in class, e.g. in combination with collaborative writing tools. The resulting products are already an independent achievement. An orthographic and grammatical „follow-up check“ using ki-based tools works very well. Especially in the intermediate level, the skills for evaluating „AI interventions“ in this area should, in principle, have already occurred in school life and be „pre-networked“ in long-term memory – actually.
One of the main tasks of education will be how to communicate that certain things should be mastered before AI is used – precisely because the machine can do it so much better. And not just for students, but above all for us teachers.
When we think about this, we very quickly end up with structural considerations about the german education system itself.
„Oh, Luise, stop … that’s too broad a field.“ (Theodor Fontane, Effi Briest, last sentence)
Warum lohnt sich die Anstrengung, KI nicht zu nutzen?
Philippe Wampfler denkt in seinem letzten Blogartikel darüber nach, wie lange es noch möglich sein wird, KI zur Erstellung von Texten in der Schule nicht zu nutzen bzw. wie lange es dafür noch gute Argumente gibt . Er nutzt dafür eine Analogie: Niemand würde heute auf die Idee kommen, im Alltag Sahne mit der Hand zu schlagen, weil mittlerweile elektrische Rührgeräte zur Verfügung stehen. Irgendwann wird niemand mehr auf Idee kommen, Texte selbst zu verfassen, weil KI-Modelle immer besser und normaler werden.
Ich habe Schwierigkeiten mit Analogien aus der „analogen Welt“ in Bezug auf den gesellschaftlichen Wandel durch die digitale Welt. Ob ich Sahne mit einer Gabel oder einem Rührgerät schlage, ist bezogen auf das Produkt, was dabei entsteht, letztlich nicht entscheidend. Es kommt immer mehr oder weniger steif geschlagene Sahne dabei heraus. Die Konsistenz der Sahne hat darüberhinaus überhaupt keine Wirkung nach außen – KI hingegen das Potential mit Gesellschaft in vielfältiger Weise zu wechselwirken.
Was an Ausgaben aus einem Sprachmodell kommt, ist mehr oder minder zufällig. Dass mir ein Sprachmodell einen Text korrekt zusammenfasst, hängt letztlich von statistischen Berechnungen ab. Bei einem Scanner oder Kopierer würden wir nicht akzeptieren, wenn es zu zufälligen Ausgaben kommt. Bei Sprachmodellen ist das prinzipbedingt so und wir akzeptieren es. Man kann zwar in Grenzen Ausgaben beeinflussen, aber hätte dann ggf. den Text in der gleichen Zeit selbst verfasst, die man für das Finden eines geeigneten Prompts benötigt.
Niemand löst das mit KI erstellte Arbeitsblatt besser als KI. Niemand beantwortet KI-generierte Fragen zu einem Video besser als KI. Das wissen auch Schüler:innen.
Es gibt die Hoffnung, dass Sprachmodelle besser werden könnten – dazu müsste meiner Meinung nach aber ein technisch gänzlich neuer Ansatz entwickelt werden – der bisherige Transformeransatz hat prinzipbedingte Grenzen – schon allein, weil das zur Verfügung stehende Trainingsmaterial limitiert ist und darüberhinaus immer mehr KI-generierte Texte das Netz fluten, die dann ihrerseits in einer Feedbackschleife ihren Weg zurück in die großen Modelle finden.
Mich treibt eher diese Frage um:
Was muss man eigentlich können, bevor man ein Sprachmodell sinnvoll nutzen kann?
Um Produkte für die Schule zu generieren, muss man eigentlich in vielen Fällen gar nicht so viel können, aber ist das letztlich für das Lernen bzw. den Kompetenzerwerb dann hilfreich?
Ich bilde mir mittlerweile ein, KI-generierte Texte deutlich besser identifizieren zu können, weil sie u.a. immer einen hineintrainierten Bias mitbringen.
Ich sehe Sprachmodelle eher da, wo es weniger um Lernen oder Wissen geht.
- Rechtschreibkorrektur
- Erstellung von entseelten Texten (Gutachten, Anträge, Vermerke, Produktbeschreibungen…)
- Dokumentenmanagement (Suchhilfe)
- automatische Übersetzung entseelter Texte (bei z.B. Dialogen oder literarischen Texten geht das bisher m.E. noch nicht gut)
- ggf. Erstellung von Übungsmaterial (wenn den Übenden keine KI zur Verfügung steht – s.o.)
Für Digitalkonzerne sind Sprachmodelle vor allem ein großes Geschenk, um an Inhalte jedweder Art zu kommen, ohne dass die meisten Benutzer:innen das in irgendeiner Form problematisch finden. Und das ist nur eine der weiter oben angedeuteten Wechselwirkungen. Mit Sahne erreicht man das nicht. Daher ist für mich diese Analogie nur auf den ersten Blick einleuchtend.
Sollte ich als Lehrkraft den KI-Einsatz z.B. bei Feedback oder Unterrichtsplanung transparent machen?
Es kristallisiert sich bei mir in Beratungsprozessen zunehmend ein Ungleichgewicht bei der KI-Nutzung (KI hier als Synonym für Sprachmodelle) von Lehrkräften und Schüler:innen heraus.
Weil Schüler:innen KI nutzen, gibt es ein großes Bedürfnis nach technischen Lösungen, wie man das herausfinden kann, denn das wäre ja Betrug, weil man die Leistung eines technischen Systems als die eigene ausgibt.
Wenn Lehrkräfte hingegen KI-Systeme zum Erstellen von Feedback oder Unterrichtsvorbereitungen nutzen, dann ist das eine selbstverständliche Nutzung eines Werkzeugs zur Entlastung im zunehmend belastenderen Beruf. Weil es eben nur ein Werkzeug wie z.B. die automatische Rechtschreibkorrektur oder ein Wörterbuch ist, muss das nicht transparent gemacht werden.
Das riecht oberflächlich betrachtet natürlich ziemlich streng nach Adultismus: Erwachsene Lehrkräfte „dürfen“ etwas, was Schüler:innen nicht dürfen. Zusätzliche Legitimation erhält das dadurch, dass KI-Werkzeuge explizit mit diesen Möglichkeiten für Lehrkräfte beworben und durch manche Kultusministerien selbst promotet werden. Wenn selbst der Dienstherr mir diese Tür öffnet, dann ist diese Art der Werkzeugnutzung in der Wahrnehmung von Lehrkräften natürlich auch legitim.
Die häufige Kritik an mich dabei ist der Vorwurf, letztlich innovationsfeindlich zu sein. Ich versuche im Verlauf dieses Textes zu erklären, warum es wichtig ist, die Frage zuzulassen, ob man als Lehrkraft den Einsatz von KI Schüler:innen gegenüber transparent machen sollte. Die Entscheidung muss jeder selbst treffen.
Transparenz entwertet die Leistung der Lehrkraft gegenüber Schüler:innen
Gedankenexperiment: Ich habe mich verliebt und möchte das zum Ausdruck bringen. Ich nutze ein Sprachmodell, um ein Treffen mit dem angebeteten Menschen über einen Messenger anzubahnen. Welche Aussichten auf ein Treffen habe ich, wenn ich das im Chatverlauf bereits transparent mache?
Ich denke: Keine.
Intutitiv wird mein Gegenüber wahrnehmen, dass er/sie mir es nicht einmal wert war, dass ich mich als Mensch in den ersten Kontakt einbringe.
Das spüre ich als Nutzer der Sprachmodelle natürlich ebenfalls intuitiv. Ich legitimiere den Einsatz aber vielleicht dadurch vor mir selbst, dass ich zwar schlecht schreiben, mich aber real gut präsentieren kann.
Ohne den Einsatz der KI würde ich nicht einmal die Chance auf ein Treffen bekommen!
Wenn ich diese Transparenz als Lehrkraft gegenüber Schüler:innen in Feedbackprozessen herstelle, könnten die Wahrnehmungen ähnlich sein: Vielleicht werde ich in meiner beruflichen Kompetenz anders wahrgenommen, vielleicht empfinden Schüler:innen sich durch automatisierte Feedbackprozesse weniger wertgeschätzt. Ich glaube, dass das der Grund für die Verweigerung von Transparenz in diesem Bereich ist.
Aber ohne den Einsatz von KI würden die Schüler:innen angesichts meiner eigenen Belastung nicht einmal die Chance auf ein individualisiertes Feedback bekommen!
Durch KI-Feedback stabilisieren wir ein reformbedürftiges System
Der Ausweg besteht dann darin, von vornherein ein System zu nutzen, bei dem die Präsenz der KI komplett transparent ist – da gibt es ja das ein oder andere am Markt.
Wir stellen aber fest, dass wir im bestehenden System nicht in der Lage sind, Schüler:innen angemessen und individualisiert Feedback zu geben. Um das zu können, lagern wir das Feedback an technische Systeme aus, lassen uns davon unterstützen oder geben uns den Versprechen hin, dass das irgendwann möglich sein wird.
Aber die eigentliche Ursache liegt doch im System – vor allem darin, dass „Kompetenznachweise“ grundsätzlich an Produkten geführt werden, deren Erstellung für KI-Systeme mittlerweile ein Leichtes ist.
Ich glaube, dass Kompetenzen innerhalb von Prozessen entstehen (und ich glaube daran, dass der Prozessbegriff den Kompetenzbegriff bald ablösen wird). Indem (operationalisiert) ich einen Text schreibe, lerne ich einen Text zu schreiben. Indem ich eine Programmieraufgabe löse, lerne ich zu programmieren. Indem ich Fingerläufe auf der Gitarre übe, lerne ich ein Musikstück zu spielen.
Aber das ist Stress. Für mich ist es heute totaler Stress, mir einfache Tabulaturen von Eva Cassidy draufzuschaffen und ich schaue dann lieber YT-Videos, die mir das zeigen. Aber ich kann bis heute keinen Song von ihr spielen. Wenn aber mein Kollege, der Gitarre studiert hat, meine Technik anschaut müde lächelnd sagt: „Mh, das Problem dabei ist oft … Versuche doch mal …“ und vielleicht noch an meiner Haltung herumbiegt – dann geht es voran.
Jetzt stellen wir uns ein Bildungssystem vor, das Schüler:innen in vergleichbaren Prozessen unterstützt, sie an Klippen vorbeiführt, an denen schon viele Menschen vorher vorbei mussten. Dann entstehen andere Produkte. Welche Rolle hätte KI in einem solchen System? Welche Rolle hätten Produkte?
Indem Menschen KI nutzen, überspringen sie Prozesse. Menschen – also Schüler:innen und Lehrkräfte.
KI-Feedback ist pseudo-individuell
KIs sind statistische Modelle. Sie bilden statistische Wahrscheinlichkeiten ab. Eine KI „weiß“ nicht, dass Martha seit drei Jahren in Deutschland lebt und daran scheitert, dass ihr ihr Anspruch im Weg steht, möglichst hochtrabendes Deutsch zu schreiben. Eine KI „weiß“ nicht einmal, dass sie gerade einen Nonsense-Text erhalten hat und gibt brav und promptkonform statistisches Feedback zu einem Text, den ich maximal angelesen hätte.
Ich habe in meinem Feedback zu Martha eine Passage aus ihrem Text genommen und diese in eine Form übertragen, von der ich denke, dass Martha sie sprachlich beherrschen könnte.
Ich habe Peter geschrieben, dass sich die fehlende Struktur und assoziative Anlage seines Textes sprachlich u.a. in der häufigen Verwendung der Konjunktion „und“ widerspiegelt und(!) ihm ins „Aufgabenbuch“ drei seiner Sätze zum Umformulieren geschrieben.
Ich habe Luca meine Hochachtung für seinen Mut mitgeteilt, dass er sich in der Klausur etwas mit eigenem Stil getraut hat, obwohl das nicht immer der Aufgabe gerecht wurde.
Ich weiß im Gegensatz zur KI nämlich etwas über Martha, Peter und Luca. Und ich habe eine Vorstellung davon, was ich für eigenen Stil halte. Diese Vorstellung habe ich entwickelt, weil ich über jahrelange Korrekturerfahrung verfüge, die mir u.a. sagt, dass es Sinn macht, gezielt Entwicklungspotentiale in einem Feedback zu fokussieren, Schwerpunkte für Feedback zu setzen und nicht wahllos einen Text rot zu malen.
KI ist für mich in diesem Kontext maximal für Worthülsen und „Sprachfüllmaterial“ nutzbar – wie es der Dienstherr zunehmend verlangt (s.u.). Aber Martha, Peter und Luca würden das wahrscheinlich gar nicht bemerken, wenn ich für Feedback einfach nur KI-Ausgaben nutze und modifiziere, so wie ich nicht bemerken würde, wenn sie ihrerseits damit ihre Texte schrieben.
Aber hätte ich das mein Leben lang gemacht, sähe mein Lernprozess bezüglich des Feedbacks an Schüler:innen deutlich anders aus. Ich wäre vielleicht vergleichbar (in)effizient wie heute durch die technische Unterstützung, aber bei Weitem nicht so individualisiert.
Indem ich mich der Frage stelle, ob ich nicht den Einsatz von KI für Schüler:innenfeedback transparent machen sollte …
KI für entseelte Texte
In manchen Kultusministerien sollen Juristen sitzen, die den Rahmen für Reformen vorgeben und Recht nicht entwickeln (wollen). Aus solchen Kreisen sind m.E. in den letzten Jahren Vorgaben gekommen für alle Art von Konzepten, Berichten, Gutachten und dezidierten Korrekturvorschriften (z.B. nicht die notenäquivalenten Wörter wie „sehr gut“ usw. in Randbemerkungen zu nutzen). Der Hintergrund ist die Justitiabilität, das sich „Sich-nicht-angreifbar-machen“ im Falle von Auseinandersetzungen. Man möchte im Rahmen seiner Fürsorgepflicht die Lehrkräfte vor unangenehmen Situationen bewahren. Und ich glaube, dass dahinter letztlich tatsächlich eine gute Absicht mit etwas blöden Konsequenzen in der Fläche steht.
Diese ganzen Texte, die dabei entstehen, sind durch diese Vorgaben entseelt. Sie haben eine begrenzte Legitimation in Edge-Cases, werden aber zu 99% nie wieder gelesen oder kontrolliert. Sie müssen halt nur da sein. Solche Texte kann KI gut. Sehr gut sogar. Weil sie so oft wischiwaschi und sehr schematisch sind.
Mich juckt es in den Fingern, im nächsten Jahr, alle meine Abiturgutachten mit einem Transparenzhinweis zu versehen, dass zur Erstellung KI genutzt worden ist. Ich bin
- gespannt, was dann und ob etwas los ist
- wie nach Wegnahme des Hinweises überprüft werden soll, dass das Gutachten jetzt ohne KI erstellt worden ist (Wahrscheinlich müsste ich das schriftlich erklären und dann wäre das gut …)
Dass einige Dienstherrn die Unterstützung durch KI bei Korrekturen und Feedback aktiv bewerben, sich aber der Frage nach der Transparenz oft gar nicht, bzw. für mich nicht sichtbar stellen, ist doch ziemlich bezeichnend, oder?
Logisch wäre eine Dienstanweisung, das Zeug zu nutzen, aber das um Himmelswillen nicht transparent zu machen. Dann würde es nämlich wahrscheinlich spannend hinsichtlich der Justitiabilität.