Vorsorgeprodukte von der privaten Krankenversicherung?

Mein pri­va­ter Kran­ken­ver­si­che­rer rief mich kürz­lich an, ob ich nicht Inter­es­se dar­an hät­te, mei­ne unwei­ger­li­che Bei­trags­er­hö­hung im Alter durch ein Pro­dukt abzu­si­chern und für mei­ne gesam­te Pen­si­ons­zeit einen ver­min­der­ten Bei­trag zu zahlen.

Der Deal sieht etwa so aus:

  • ich zah­le jetzt 15 Jah­re lang 100,- Euro mehr Kran­ken­ver­si­che­rungs­bei­trag (net­to, unter Berück­sich­ti­gung der Steu­er­frei­heit von Vorsorgeprodukten).
  • dafür min­dert sich mein Bei­trag für die gesam­te ver­blei­ben­de Lebens­span­ne um 150,- Euro monatlich.

Hört sich erst­mal gut an. Rech­nen wir das doch mal.

 

Wie viel Kapi­tal kann ich in 15 Jah­ren mit 100 Euro/Monat bei unter­schied­li­cher Ver­zin­sung aufbauen?

Wir nut­zen dazu ein Online­tool, wel­ches nach aner­kann­ten Stan­dards arbei­tet und neh­men eine jah­res­wei­se Zins­gut­schrift an.

Das auf­ge­bau­te Kapi­tal bei unter­schied­li­chen Zinssätzen:

  • bei 2% : 20752,- Euro
  • bei 4% : 24028,- Euro
  • bei 6% : 27931,- Euro

 

Wie lan­ge kann ich aus dem auf­ge­bau­ten Kapi­tal­stock monat­lich 150,- Euro entnehmen? 

Ich nut­ze das glei­che Online­tool wie bei der Kapitalberechnung:

  • bei 2% : 13,1 Jah­re (da wäre ich 80 Jah­re alt)
  • bei 4% : 18,9 Jah­re (da wäre ich 86 Jah­re alt)
  • bei 6% :  40,6 Jah­re (da wäre ich 107 Jah­re alt)

Die durch­schnitt­li­che Lebens­er­war­tung eines Man­nes beträgt momen­tan 78 Jah­re, d.h. mit einer Ver­zin­sung unter­halb von 2% ist die eige­ne Geld­an­la­ge dem Pro­dukt des Kran­ken­ver­si­che­rers sta­tis­tisch(!) über­le­gen. Ster­be ich frü­her: Noch bes­ser für den Kran­ken­ver­si­che­rer, da die Anla­ge ja an den Ver­si­che­rungs­ver­trag gebun­den ist, der dann erlischt.

Das Pro­dukt ist zumin­dest im sta­tis­ti­schen Mit­tel also eine Ver­ar­schung des Kun­den – und des Steu­er­zah­lers, der die­sen Irr­sinn durch die Steu­er­frei­heit auch noch mit­fi­nan­ziert – ansons­ten wäre die Net­to­zah­lung noch höher als 100,- Euro. Es wird aber Fäl­le geben (sehr weni­ge), in denen sich sowas rechnet.

 

Gegen­rech­nung mit ETF-Sparplan

Neh­men wir mal einen lang­wei­li­gen ETF, der den DAX abbil­det (7%)  und machen einen Spar- und Ent­nah­me­plan. Auf Basis von his­to­ri­schen Daten kommt da raus:

31110,- Euro und man kann endlos(sic!) 150,- Euro monat­lich ent­neh­men (inner­halb der sta­ti­schen Lebens­er­war­tung sogar über 300,- Euro monatlich).

Und zu kei­ner Zeit zahlt in dem Bereich irgend­wer Kapi­tal­ertrags­steu­er, was man euch ger­ne als Vor­teil ver­kauft (die schlägt erst bei 1000,- Euro Zinsen/Jahr bei Unver­hei­ra­te­ten zu).

Unge­fähr in sol­chen Berei­chen dürf­te sich auch die Gewinn­span­ne des Ver­si­che­rers bewe­gen, weil der das ger­ne mit lang­fris­ti­gen Staats­an­lei­hen absi­chert, die momen­tan bei rund 3–4% liegen.

 

Fazit

  • Lasst das!
  • Lasst auch Ries­ter­ver­trä­ge (rech­net mal trotz Zula­gen gegen ETF-Sparplan)
  • Habt ihr Schul­den: Tilgt die­se lie­ber mit dem Geld, was ihr über habt (da seid ihr immer über 2% Gewinn)

 

 

 

AI at school? Is it just there and do we have to deal with it?

Preliminary remarks for this english version

Alt­hough this artic­le takes a cri­ti­cal look at the use of AI in schools, I have used an AI tool „made in Ger­ma­ny“ for the trans­la­ti­on (https://www.deepl.com). it’s not my style and vio­la­tes my idea of flu­ent english.

On the basis of the­se thoughts, I some­ti­mes face strong cri­ti­cism from the Ger­man edu­ca­ti­on com­mu­ni­ty or even the edu­ca­ti­on admi­nis­tra­ti­on for which I work – it seems to me, that I would break (male) tech­nic toys or spoil them at least.

Introduction

Not a day goes by on social media wit­hout new, cool tips on using AI in the class­room. For three years now, I’ve been giving talks on AI to all kinds of groups and com­mit­tees, which has incre­asing­ly tur­ned into a very cri­ti­cal view of the topic.

1. AI applications that generate language prevent learning processes

Various rese­ar­chers and experts point to serious short­co­mings in lan­guage models, which form the back­bone of many edu­ca­tio­nal offe­rings. The effects on lear­ning pro­ces­ses are also being descri­bed with incre­asing cri­ti­cism. Signi­fi­cant­ly, the most nuan­ced cri­ti­cism almost always comes from peo­p­le with a back­ground in com­pu­ter sci­ence. Advo­ca­tes of the use of lan­guage models in the tea­ching con­text always argue that it always depends on the type of use. I am not con­vin­ced of this.

As an exam­p­le, I would like to refer to a recent stu­dy by Rai­ner Mühl­hoff and Mar­te Hen­ningsen, who took a clo­ser look at a Fobizz tool for the auto­ma­tic assess­ment of home­work. The­re are seve­ral of the­se tools or offe­rings on the Ger­man mar­ket, even tho­se that have recei­ved start-up awards. What they have in com­mon is that they are based on the same IT tech­no­lo­gy and are expli­cit­ly aimed at tea­chers. The study’s base of data is rela­tively small – unfort­u­na­te­ly, this is the case with many stu­dies in the edu­ca­ti­on sec­tor. Here are some excerp­ts from the results:

  1. Both the sug­gested over­all gra­de and the qua­li­ta­ti­ve feed­back varied signi­fi­cant­ly bet­ween dif­fe­rent assess­ment runs of the same sub­mis­si­on. This vola­ti­li­ty poses a serious pro­blem, as tea­chers rely­ing on the tool could unkno­wing­ly award ‘cher­ry-picked’ and poten­ti­al­ly unfair gra­des and feedback.§
  2. Even with full imple­men­ta­ti­on of the sug­ges­ti­ons for impro­ve­ment, it was not pos­si­ble to sub­mit a “per­fect” – i.e. no lon­ger objec­tionable – sub­mis­si­on. A near-per­fect score was only achie­ved by revi­sing the solu­ti­on with ChatGPT, which signals to stu­dents that they need to rely on AI sup­port to achie­ve a top score.“
  3. The tool has fun­da­men­tal short­co­mings, seve­ral of which the stu­dy clas­si­fies as “fatal obs­ta­cles to use”. It is poin­ted out that most of the obser­ved short­co­mings are due to the inher­ent tech­ni­cal cha­rac­te­ristics and limi­ta­ti­ons of lar­ge lan­guage models (LLMs). For the­se reasons, a quick tech­ni­cal solu­ti­on to the short­co­mings is not to be expected.“

The stu­dy refers to the use of lan­guage models by tea­chers. This should a use by experts with cor­re­spon­ding expe­ri­ence and exper­ti­se in the imple­men­ta­ti­on of assessments.

The lar­ge­ly pro­fes­sio­nal­ly unre­flec­ted demand for the nati­on­wi­de pro­vi­si­on of so-cal­led AI tools can be found both in the press and in asso­cia­ti­ons. Our media cen­ter actual­ly pro­vi­des tea­chers at schools run by the dis­trict with such access. I would now con­sider lin­king this pro­vi­si­on to pri­or man­da­to­ry trai­ning and awareness-raising.

With regard to use by stu­dents, Jep­pe Klit­gaard Stri­cker has made some remar­kab­le the­ses and obser­va­tions for me:

  1. Intellec­tu­al mir­ro­ring (stu­dents uncon­scious­ly adop­ting AI speech patterns)
  2. Digi­tal depen­den­cy dis­or­der (stu­dents panic when AI tools are unavailable)
  3. The illu­si­on of mas­tery (stu­dents thin­king they under­stand becau­se AI explai­ned it)
  4. Col­la­bo­ra­ti­ve intel­li­gence decay (stu­dents aban­do­ning human brain­stor­ming when AI is faster)
  5. Rea­li­ty-prompt con­fu­si­on (stu­dents vie­w­ing real-life chal­lenges as prompts to optimize)
  6. Know­ledge con­fi­dence cri­sis (stu­dents doubting human wis­dom vs AI certainty)
  7. AI-indu­ced per­fec­tion­ism (the pres­su­re to match AI’s flaw­less outputs)

I would like to replace the word “stu­dents” with the word “lear­ners” here, becau­se many of the points are likely to app­ly to adults as well. This per­spec­ti­ve is quite new to me, becau­se up to now I have ten­ded to take a cogni­ti­ve-theo­re­ti­cal approach in my cri­ti­cism of the use of lan­guage models in the classroom:

In a nuts­hell: Our working memo­ry con­ta­ins what we are curr­ent­ly thin­king. Among other things, it is fed by what we have trans­fer­red to our long-term memo­ry over the cour­se of our lives. The degree of net­wor­king of this know­ledge in long-term memo­ry is grea­ter for expe­ri­en­ced peo­p­le (experts) than for inex­pe­ri­en­ced peo­p­le (novices). The out­put of lan­guage models over­loads the capa­ci­ty of the working memo­ry of novices much fas­ter than that of experts, becau­se the­re is less com­pen­sa­ti­on through pre-net­work­ed know­ledge from long-term memory.

Of cour­se, AI can be used at any stage, e.g. when wri­ting semi­nar papers. Howe­ver, the ext­ent to which this makes sen­se for novices with a very hete­ro­ge­neous degree of net­wor­king – which is how lear­ning groups are com­po­sed – in long-term memo­ry must be exami­ned very carefully.

Taking into account the pre­vious pre­mi­ses, lan­guage models can only be used to pro­mo­te lear­ning if the novices alre­a­dy have a cer­tain amount of net­work­ed pri­or know­ledge. For me, it would be irre­spon­si­ble to focus tea­ching sole­ly on the level of use and operation.

Experts, on the other hand, are pro­ba­b­ly much bet­ter at eva­lua­ting the out­put of lan­guage models, but wit­hout a basic under­stan­ding of their func­tion, they can­not use them in a reflec­ti­ve man­ner. Who, for exam­p­le, has the same text eva­lua­ted seve­ral times by an AI tool and then com­pa­res the out­puts with each other, as was done in the stu­dy cited? What’s more, the mar­ke­ting pro­mi­se of time savings quick­ly beco­mes obso­le­te. Experts also tend to be „sus­cep­ti­ble“ to the mecha­nisms for­mu­la­ted by Stricker.

2. Products of AI applications are the new plastic and contaminate the communication space of the Internet

Linux Lee, among others, came up with the idea of see­ing gene­ra­ti­ve AI pro­ducts as ana­log­ous to pla­s­tic made from cru­de oil. Just as the petro­le­um pro­duct fills our tan­gi­ble world, the pro­ducts of gene­ra­ti­ve AI (music, images, vide­os, texts, etc.) fill the com­mu­ni­ca­ti­ve space of the internet.

In the cour­se of sus­taina­bi­li­ty thin­king, pla­s­tic quick­ly falls into a nega­ti­ve cor­ner, but as a mate­ri­al it is indis­pensable in many are­as of modern socie­ty. One major dif­fe­rence is what can be done with exis­ting pla­s­tic. In prin­ci­ple, pla­s­tic made from cru­de oil can be recy­cled, but this is neither eco­no­mic­al­ly via­ble nor are the­re any cor­re­spon­ding con­trol mecha­nisms in the pro­duc­tion and recy­cling chain that would make this pos­si­ble. With a well-struc­tu­red pla­s­tic cycle, mul­ti­ple use of the mate­ri­al is con­ceiva­ble in prin­ci­ple wit­hout any major loss of quality.

The more pro­ducts of gene­ra­ti­ve AI enter the com­mu­ni­ca­ti­on space of the inter­net, the more likely it is that they them­sel­ves will beco­me the actu­al trai­ning basis for AI. This is refer­red to as the „rebound effect“. More or less humo­rous­ly, the the­sis was for­mu­la­ted in rela­ti­on to the edu­ca­ti­on sys­tem that at some point a „tea­cher AI“ will eva­lua­te the „AI home­work“ of the stu­dents. Iro­ni­cal­ly, the stu­dy by Mühl­hoff and Hen­ningsen pro­vi­des „initi­al evi­dence“ of pre­cis­e­ly this. In con­trast to pla­s­tic made from cru­de oil, the resour­ce „pro­duct of a gene­ra­ti­ve AI“ is not real­ly limi­t­ed if, for exam­p­le, rene­wa­ble ener­gy is used to pro­du­ce it. This means that the­re is no real inte­rest or even a need to regu­la­te the­se pro­ducts. The cri­ti­cal view of AI in an edu­ca­tio­nal con­text alo­ne is defi­ni­te­ly asso­cia­ted with hosti­li­ty towards innovation.

This in turn has to do with the fact that AI is often not view­ed in a dif­fe­ren­tia­ted way: Using simi­lar com­pu­ter sci­ence mecha­nisms, AI can gene­ra­te lan­guage or cal­cu­la­te pro­te­in struc­tures very effi­ci­ent­ly in the deve­lo­p­ment of medi­ci­nes. The­se can beco­me sus­tainable pro­ducts, as is also pos­si­ble with pla­s­tic made from cru­de oil. Both „are“ AI.

I would eva­lua­te the lat­ter use of AI very dif­fer­ent­ly, as the resul­ting pro­duct is effec­ti­ve on a com­ple­te­ly dif­fe­rent level. I miss this dif­fe­rence in per­spec­ti­ve in the social dis­cus­sion. In the edu­ca­ti­on sec­tor in par­ti­cu­lar, the topic is usual­ly satu­ra­ted with mar­ke­ting and buz­zwords and usual­ly rea­ches a tar­get group that is not suf­fi­ci­ent­ly edu­ca­ted in infor­ma­ti­on technology.

Yes, what can you do? AI is here to stay!

… and does­n’t go away again. In my last gra­dua­ti­on speech at my son’s school, I descri­bed how being able to choo­se is a luxu­ry situa­ti­on. In fact, you can choo­se not to use lan­guage models in class. Per­so­nal­ly, I find it dif­fi­cult to give lon­ger text pro­duc­tions as home­work – I pre­fer to do this in class, e.g. in com­bi­na­ti­on with col­la­bo­ra­ti­ve wri­ting tools. The resul­ting pro­ducts are alre­a­dy an inde­pen­dent achie­ve­ment. An ortho­gra­phic and gram­ma­ti­cal „fol­low-up check“ using ki-based tools works very well. Espe­ci­al­ly in the inter­me­dia­te level, the skills for eva­lua­ting „AI inter­ven­ti­ons“ in this area should, in prin­ci­ple, have alre­a­dy occur­red in school life and be „pre-net­work­ed“ in long-term memo­ry – actually.

One of the main tasks of edu­ca­ti­on will be how to com­mu­ni­ca­te that cer­tain things should be mas­te­red befo­re AI is used – pre­cis­e­ly becau­se the machi­ne can do it so much bet­ter. And not just for stu­dents, but abo­ve all for us teachers.

When we think about this, we very quick­ly end up with struc­tu­ral con­side­ra­ti­ons about the ger­man edu­ca­ti­on sys­tem itself.

Oh, Lui­se, stop … that’s too broad a field.“ (Theo­dor Fon­ta­ne, Effi Briest, last sentence)

Warum lohnt sich die Anstrengung, KI nicht zu nutzen?

Phil­ip­pe Wampf­ler denkt in sei­nem letz­ten Blog­ar­ti­kel dar­über nach, wie lan­ge es noch mög­lich sein wird, KI zur Erstel­lung von Tex­ten in der Schu­le nicht zu nut­zen bzw. wie lan­ge es dafür noch gute Argu­men­te gibt . Er nutzt dafür eine Ana­lo­gie: Nie­mand wür­de heu­te auf die Idee kom­men, im All­tag Sah­ne mit der Hand zu schla­gen, weil mitt­ler­wei­le elek­tri­sche Rühr­ge­rä­te zur Ver­fü­gung ste­hen. Irgend­wann wird nie­mand mehr auf Idee kom­men, Tex­te selbst zu ver­fas­sen, weil KI-Model­le immer bes­ser und nor­ma­ler werden.

Ich habe Schwie­rig­kei­ten mit Ana­lo­gien aus der „ana­lo­gen Welt“ in Bezug auf den gesell­schaft­li­chen Wan­del durch die digi­ta­le Welt. Ob ich Sah­ne mit einer Gabel oder einem Rühr­ge­rät schla­ge, ist bezo­gen auf das Pro­dukt, was dabei ent­steht, letzt­lich nicht ent­schei­dend. Es kommt immer mehr oder weni­ger steif geschla­ge­ne Sah­ne dabei her­aus. Die Kon­sis­tenz der Sah­ne hat dar­über­hin­aus über­haupt kei­ne Wir­kung nach außen – KI hin­ge­gen das Poten­ti­al mit Gesell­schaft in viel­fäl­ti­ger Wei­se zu wechselwirken.

Was an Aus­ga­ben aus einem Sprach­mo­dell kommt, ist mehr oder min­der zufäl­lig. Dass mir ein Sprach­mo­dell einen Text kor­rekt zusam­men­fasst, hängt letzt­lich von sta­tis­ti­schen Berech­nun­gen ab. Bei einem Scan­ner oder Kopie­rer wür­den wir nicht akzep­tie­ren, wenn es zu zufäl­li­gen Aus­ga­ben kommt. Bei Sprach­mo­del­len ist das prin­zip­be­dingt so und wir akzep­tie­ren es. Man kann zwar in Gren­zen Aus­ga­ben beein­flus­sen, aber hät­te dann ggf. den Text in der glei­chen Zeit selbst ver­fasst, die man für das Fin­den eines geeig­ne­ten Prompts benötigt.

Nie­mand löst das mit KI erstell­te Arbeits­blatt bes­ser als KI. Nie­mand beant­wor­tet KI-gene­rier­te Fra­gen zu einem Video bes­ser als KI. Das wis­sen auch Schüler:innen.

Es gibt die Hoff­nung, dass Sprach­mo­del­le bes­ser wer­den könn­ten – dazu müss­te mei­ner Mei­nung nach aber ein tech­nisch gänz­lich neu­er Ansatz ent­wi­ckelt wer­den – der bis­he­ri­ge Trans­for­mer­an­satz hat prin­zip­be­ding­te Gren­zen – schon allein, weil das zur Ver­fü­gung ste­hen­de Trai­nings­ma­te­ri­al limi­tiert ist und dar­über­hin­aus immer mehr KI-gene­rier­te Tex­te das Netz flu­ten, die dann ihrer­seits in einer Feed­back­schlei­fe ihren Weg zurück in die gro­ßen Model­le finden.

Mich treibt eher die­se Fra­ge um:

Was muss man eigent­lich kön­nen, bevor man ein Sprach­mo­dell sinn­voll nut­zen kann?

Um Pro­duk­te für die Schu­le zu gene­rie­ren, muss man eigent­lich in vie­len Fäl­len gar nicht so viel kön­nen, aber ist das letzt­lich für das Ler­nen bzw. den Kom­pe­tenz­er­werb dann hilfreich?

Ich bil­de mir mitt­ler­wei­le ein, KI-gene­rier­te Tex­te deut­lich bes­ser iden­ti­fi­zie­ren zu kön­nen, weil sie u.a. immer einen hin­ein­trai­nier­ten Bias mitbringen.

Ich sehe Sprach­mo­del­le eher da, wo es weni­ger um Ler­nen oder Wis­sen geht.

  • Recht­schreib­kor­rek­tur
  • Erstel­lung von ent­seel­ten Tex­ten (Gut­ach­ten, Anträ­ge, Ver­mer­ke, Produktbeschreibungen…)
  • Doku­men­ten­ma­nage­ment (Such­hil­fe)
  • auto­ma­ti­sche Über­set­zung ent­seel­ter Tex­te (bei z.B. Dia­lo­gen oder lite­ra­ri­schen Tex­ten geht das bis­her m.E. noch nicht gut)
  • ggf. Erstel­lung von Übungs­ma­te­ri­al (wenn den Üben­den kei­ne KI zur Ver­fü­gung steht – s.o.)

Für Digi­tal­kon­zer­ne sind Sprach­mo­del­le vor allem ein gro­ßes Geschenk, um an Inhal­te jed­we­der Art zu kom­men, ohne dass die meis­ten Benutzer:innen das in irgend­ei­ner Form pro­ble­ma­tisch fin­den.  Und das ist nur eine der wei­ter oben ange­deu­te­ten Wech­sel­wir­kun­gen. Mit Sah­ne erreicht man das nicht. Daher ist für mich die­se Ana­lo­gie nur auf den ers­ten Blick einleuchtend.

 

 

Sollte ich als Lehrkraft den KI-Einsatz z.B. bei Feedback oder Unterrichtsplanung transparent machen?

Es kris­tal­li­siert sich bei mir in Bera­tungs­pro­zes­sen zuneh­mend ein Ungleich­ge­wicht bei der KI-Nut­zung (KI hier als Syn­onym für Sprach­mo­del­le) von Lehr­kräf­ten und Schüler:innen heraus. 

Weil Schüler:innen KI nut­zen, gibt es ein gro­ßes Bedürf­nis nach tech­ni­schen Lösun­gen, wie man das her­aus­fin­den kann, denn das wäre ja Betrug, weil man die Leis­tung eines tech­ni­schen Sys­tems als die eige­ne ausgibt. 

Wenn Lehr­kräf­te hin­ge­gen KI-Sys­te­me zum Erstel­len von Feed­back oder Unter­richts­vor­be­rei­tun­gen nut­zen, dann ist das eine selbst­ver­ständ­li­che Nut­zung eines Werk­zeugs zur Ent­las­tung im zuneh­mend belas­ten­de­ren Beruf. Weil es eben nur ein Werk­zeug wie z.B. die auto­ma­ti­sche Recht­schreib­kor­rek­tur oder ein Wör­ter­buch ist, muss das nicht trans­pa­rent gemacht werden.

Das riecht ober­fläch­lich betrach­tet natür­lich ziem­lich streng nach Adul­tis­mus: Erwach­se­ne Lehr­kräf­te „dür­fen“ etwas, was Schüler:innen nicht dür­fen. Zusätz­li­che Legi­ti­ma­ti­on erhält das dadurch, dass KI-Werk­zeu­ge expli­zit mit die­sen Mög­lich­kei­ten für Lehr­kräf­te bewor­ben und durch man­che Kul­tus­mi­nis­te­ri­en selbst pro­mo­tet wer­den. Wenn selbst der Dienst­herr mir die­se Tür öff­net, dann ist die­se Art der Werk­zeug­nut­zung in der Wahr­neh­mung von Lehr­kräf­ten natür­lich auch legitim.

Die häu­fi­ge Kri­tik an mich dabei ist der Vor­wurf, letzt­lich inno­va­ti­ons­feind­lich zu sein. Ich ver­su­che im Ver­lauf die­ses Tex­tes zu erklä­ren, war­um es wich­tig ist, die Fra­ge zuzu­las­sen, ob man als Lehr­kraft den Ein­satz von KI Schüler:innen gegen­über trans­pa­rent machen soll­te. Die Ent­schei­dung muss jeder selbst treffen.

Transparenz entwertet die Leistung der Lehrkraft gegenüber Schüler:innen

Gedan­ken­ex­pe­ri­ment: Ich habe mich ver­liebt und möch­te das zum Aus­druck brin­gen. Ich nut­ze ein Sprach­mo­dell, um ein Tref­fen mit dem ange­be­te­ten Men­schen über einen Mes­sen­ger anzu­bah­nen. Wel­che Aus­sich­ten auf ein Tref­fen habe ich, wenn ich das im Chat­ver­lauf bereits trans­pa­rent mache?

Ich den­ke: Keine. 

Intu­ti­tiv wird mein Gegen­über wahr­neh­men, dass er/sie mir es nicht ein­mal wert war, dass ich mich als Mensch in den ers­ten Kon­takt einbringe.

Das spü­re ich als Nut­zer der Sprach­mo­del­le natür­lich eben­falls intui­tiv. Ich legi­ti­mie­re den Ein­satz aber viel­leicht dadurch vor mir selbst, dass ich zwar schlecht schrei­ben, mich aber real gut prä­sen­tie­ren kann.

Ohne den Ein­satz der KI wür­de ich nicht ein­mal die Chan­ce auf ein Tref­fen bekommen!

Wenn ich die­se Trans­pa­renz als Lehr­kraft gegen­über Schüler:innen in Feed­back­pro­zes­sen her­stel­le, könn­ten die Wahr­neh­mun­gen ähn­lich sein: Viel­leicht wer­de ich in mei­ner beruf­li­chen Kom­pe­tenz anders wahr­ge­nom­men, viel­leicht emp­fin­den Schüler:innen sich durch auto­ma­ti­sier­te Feed­back­pro­zes­se weni­ger wert­ge­schätzt. Ich glau­be, dass das der Grund für die Ver­wei­ge­rung von Trans­pa­renz in die­sem Bereich ist.

Aber ohne den Ein­satz von KI wür­den die Schüler:innen ange­sichts mei­ner eige­nen Belas­tung nicht ein­mal die Chan­ce auf ein indi­vi­dua­li­sier­tes Feed­back bekommen!

Durch KI-Feedback stabilisieren wir ein reformbedürftiges System

Der Aus­weg besteht dann dar­in, von vorn­her­ein ein Sys­tem zu nut­zen, bei dem die Prä­senz der KI kom­plett trans­pa­rent ist – da gibt es ja das ein oder ande­re am Markt.

Wir stel­len aber fest, dass wir im bestehen­den Sys­tem nicht in der Lage sind, Schüler:innen ange­mes­sen und indi­vi­dua­li­siert Feed­back zu geben. Um das zu kön­nen, lagern wir das Feed­back an tech­ni­sche Sys­te­me aus, las­sen uns davon unter­stüt­zen oder geben uns den Ver­spre­chen hin, dass das irgend­wann mög­lich sein wird.

Aber die eigent­li­che Ursa­che liegt doch im Sys­tem – vor allem dar­in, dass „Kom­pe­tenz­nach­wei­se“ grund­sätz­lich an Pro­duk­ten geführt wer­den, deren Erstel­lung für KI-Sys­te­me mitt­ler­wei­le ein Leich­tes ist.

Ich glau­be, dass Kom­pe­ten­zen inner­halb von Pro­zes­sen ent­ste­hen (und ich glau­be dar­an, dass der Pro­zess­be­griff den Kom­pe­tenz­be­griff bald ablö­sen wird). Indem (ope­ra­tio­na­li­siert) ich einen Text schrei­be, ler­ne ich einen Text zu schrei­ben. Indem ich eine Pro­gram­mier­auf­ga­be löse, ler­ne ich zu pro­gram­mie­ren. Indem ich Fin­ger­läu­fe auf der Gitar­re übe, ler­ne ich ein Musik­stück zu spielen.

Aber das ist Stress. Für mich ist es heu­te tota­ler Stress, mir ein­fa­che Tabu­la­tu­ren von Eva Cass­idy drauf­zu­schaf­fen und ich schaue dann lie­ber YT-Vide­os, die mir das zei­gen. Aber ich kann bis heu­te kei­nen Song von ihr spie­len. Wenn aber mein Kol­le­ge, der Gitar­re stu­diert hat, mei­ne Tech­nik anschaut müde lächelnd sagt: „Mh, das Pro­blem dabei ist oft … Ver­su­che doch mal …“ und viel­leicht noch an mei­ner Hal­tung her­um­biegt – dann geht es voran.

Jetzt stel­len wir uns ein Bil­dungs­sys­tem vor, das Schüler:innen in ver­gleich­ba­ren Pro­zes­sen unter­stützt, sie an Klip­pen vor­bei­führt, an denen schon vie­le Men­schen vor­her vor­bei muss­ten. Dann ent­ste­hen ande­re Pro­duk­te. Wel­che Rol­le hät­te KI in einem sol­chen Sys­tem? Wel­che Rol­le hät­ten Produkte?

Indem Men­schen KI nut­zen, über­sprin­gen sie Pro­zes­se. Men­schen – also Schüler:innen und Lehrkräfte.

KI-Feedback ist pseudo-individuell

KIs sind sta­tis­ti­sche Model­le. Sie bil­den sta­tis­ti­sche Wahr­schein­lich­kei­ten ab. Eine KI „weiß“ nicht, dass Mar­tha seit drei Jah­ren in Deutsch­land lebt und dar­an schei­tert, dass ihr ihr Anspruch im Weg steht, mög­lichst hoch­tra­ben­des Deutsch zu schrei­ben. Eine KI „weiß“ nicht ein­mal, dass sie gera­de einen Non­sen­se-Text erhal­ten hat und gibt brav und prompt­kon­form sta­tis­ti­sches Feed­back zu einem Text, den ich maxi­mal ange­le­sen hätte.

Ich habe in mei­nem Feed­back zu Mar­tha eine Pas­sa­ge aus ihrem Text genom­men und die­se in eine Form über­tra­gen, von der ich den­ke, dass Mar­tha sie sprach­lich beherr­schen könnte.

Ich habe Peter geschrie­ben, dass sich die feh­len­de Struk­tur und asso­zia­ti­ve Anla­ge sei­nes Tex­tes sprach­lich u.a. in der häu­fi­gen Ver­wen­dung der Kon­junk­ti­on „und“ wider­spie­gelt und(!) ihm ins „Auf­ga­ben­buch“ drei sei­ner Sät­ze zum Umfor­mu­lie­ren geschrieben.

Ich habe Luca mei­ne Hoch­ach­tung für sei­nen Mut mit­ge­teilt, dass er sich in der Klau­sur etwas mit eige­nem Stil getraut hat, obwohl das nicht immer der Auf­ga­be gerecht wurde.

Ich weiß im Gegen­satz zur KI näm­lich etwas über Mar­tha, Peter und Luca. Und ich habe eine Vor­stel­lung davon, was ich für eige­nen Stil hal­te. Die­se Vor­stel­lung habe ich ent­wi­ckelt, weil ich über jah­re­lan­ge Kor­rek­tur­er­fah­rung ver­fü­ge, die mir u.a. sagt, dass es Sinn macht, gezielt Ent­wick­lungs­po­ten­tia­le in einem Feed­back zu fokus­sie­ren, Schwer­punk­te für Feed­back zu set­zen und nicht wahl­los einen Text rot zu malen.

KI ist für mich in die­sem Kon­text maxi­mal für Wort­hül­sen und „Sprach­füll­ma­te­ri­al“ nutz­bar – wie es der Dienst­herr zuneh­mend ver­langt (s.u.). Aber Mar­tha, Peter und Luca wür­den das wahr­schein­lich gar nicht bemer­ken, wenn ich für Feed­back ein­fach nur KI-Aus­ga­ben nut­ze und modi­fi­zie­re, so wie ich nicht bemer­ken wür­de, wenn sie ihrer­seits damit ihre Tex­te schrieben.

Aber hät­te ich das mein Leben lang gemacht, sähe mein Lern­pro­zess bezüg­lich des Feed­backs an Schüler:innen deut­lich anders aus. Ich wäre viel­leicht ver­gleich­bar (in)effizient wie heu­te durch die tech­ni­sche Unter­stüt­zung, aber bei Wei­tem nicht so individualisiert.

Indem ich mich der Fra­ge stel­le, ob ich nicht den Ein­satz von KI für Schüler:innenfeedback trans­pa­rent machen sollte …

KI für entseelte Texte

In man­chen Kul­tus­mi­nis­te­ri­en sol­len Juris­ten sit­zen, die den Rah­men für Refor­men vor­ge­ben und Recht nicht ent­wi­ckeln (wol­len). Aus sol­chen Krei­sen sind m.E. in den letz­ten Jah­ren Vor­ga­ben gekom­men für alle Art von Kon­zep­ten, Berich­ten, Gut­ach­ten und dezi­dier­ten Kor­rek­tur­vor­schrif­ten (z.B. nicht die noten­äqui­va­len­ten Wör­ter wie „sehr gut“ usw. in Rand­be­mer­kun­gen zu nut­zen). Der Hin­ter­grund ist die Jus­ti­tia­bi­li­tät, das sich „Sich-nicht-angreif­bar-machen“ im Fal­le von Aus­ein­an­der­set­zun­gen. Man möch­te im Rah­men sei­ner Für­sor­ge­pflicht die Lehr­kräf­te vor unan­ge­neh­men Situa­tio­nen bewah­ren. Und ich glau­be, dass dahin­ter letzt­lich tat­säch­lich eine gute Absicht mit etwas blö­den Kon­se­quen­zen in der Flä­che steht.

Die­se gan­zen Tex­te, die dabei ent­ste­hen, sind durch die­se Vor­ga­ben ent­seelt. Sie haben eine begrenz­te Legi­ti­ma­ti­on in Edge-Cases, wer­den aber zu 99% nie wie­der gele­sen oder kon­trol­liert. Sie müs­sen halt nur da sein. Sol­che Tex­te kann KI gut. Sehr gut sogar. Weil sie so oft wischi­wa­schi und sehr sche­ma­tisch sind.

Mich juckt es in den Fin­gern, im nächs­ten Jahr, alle mei­ne Abit­ur­gut­ach­ten mit einem Trans­pa­renz­hin­weis zu ver­se­hen, dass zur Erstel­lung KI genutzt wor­den ist. Ich bin

  1. gespannt, was dann und ob etwas los ist
  2. wie nach Weg­nah­me des Hin­wei­ses über­prüft wer­den soll, dass das Gut­ach­ten jetzt ohne KI erstellt wor­den ist (Wahr­schein­lich müss­te ich das schrift­lich erklä­ren und dann wäre das gut …)

Dass eini­ge Dienst­herrn die Unter­stüt­zung durch KI bei Kor­rek­tu­ren und Feed­back aktiv bewer­ben, sich aber der Fra­ge nach der Trans­pa­renz oft gar nicht, bzw. für mich nicht sicht­bar stel­len, ist doch ziem­lich bezeich­nend, oder?

Logisch wäre eine Dienst­an­wei­sung, das Zeug zu nut­zen, aber das um Him­mels­wil­len nicht trans­pa­rent zu machen. Dann wür­de es näm­lich wahr­schein­lich span­nend hin­sicht­lich der Justitiabilität.

Handyverbote an Schulen – ein Trend im Aufwind

In Bay­ern und Hes­sen ist die Nut­zung von Han­dys an Schu­len auf Ebe­ne des Bun­des­lan­des unter­sagt. Schu­len kön­nen in ihrer jewei­li­gen Haus­ord­nung die Art der mög­li­chen Nut­zung genau­er regeln. In mei­nem Umfeld füh­ren Schu­len Han­dy­nut­zungs­ver­bo­te ein. Dar­an besteht selt­sa­mer­wei­se ein erhöh­tes media­les Inter­es­se. Es lässt sich also mit einer ent­spre­chen­den Nut­zungs­ord­nung Auf­merk­sam­keit gene­rie­ren. Auf­wind bekommt die­se Stra­te­gie aus Skan­di­na­vi­en, wo in meh­re­ren Län­dern der bis­he­ri­ge Digi­tal­kurs mehr und mehr kri­tisch gese­hen, aber medi­al undif­fe­ren­ziert dar­ge­stellt wird, da z.B. Schwe­den bereits in der Grund­schu­le einen rein(!) digi­ta­len Weg beschrit­ten hat, der mit dem bis­he­ri­gen Weg in Deutsch­land nicht ver­gleich­bar ist.

Han­dy­nut­zung­ver­bo­te an Schu­len sto­ßen natür­lich auch auf Wider­spruch. Die­ser ist im Gegen­satz zur Argu­men­ta­ti­on der Befür­wor­ter eines Ver­bots meist wesent­lich reflek­tier­ter und adres­siert nicht sel­ten struk­tu­rel­le Her­aus­for­de­run­gen im Schul­sys­tem. Dazu gehört die Tat­sa­che, dass Erwach­se­ne und vor allem Lehr­kräf­te an Schu­len wesent­lich mehr zu sagen haben als Schüler:innen. Das ist im Kon­text der För­de­rung einer demo­kra­ti­schen Hal­tung nicht immer hilf­reich und nicht sel­ten tre­ten per­for­ma­ti­ve Wider­sprü­che auf: Einer­seits ist Demo­kra­tie­för­de­rung das höchs­te Ziel von Schu­le und ran­giert in nahe­zu jedem Schul­ge­setz ganz oben. Ander­seits wer­den die Mehr­heits­ver­hält­nis­se in schu­li­schen Gre­mi­en die­sem Anspruch nicht im Ent­fern­tes­ten gerecht. Die­ses Macht­un­gleich­ge­wicht zwi­schen Erwach­se­nen und Jugend­li­chen ran­giert unter dem Begriff Adultismus.

Ich erle­be bei­de Sei­ten – Befür­wor­ter und Kri­ti­ker – mitt­ler­wei­le als pro­ble­ma­tisch: Ver­bo­te sind immer Not­be­hel­fe und set­zen sel­ten an den eigent­li­chen Ursa­chen an, erschaf­fen aber die Illu­si­on, dass eine erfolg­rei­che Hand­lung voll­zo­gen wor­den ist. Die Argu­men­ta­ti­on der Geg­ner von Han­dy­nut­zungs­ver­bo­ten ver­harrt seit mehr als einem Jahr­zehnt auf weit­ge­hend glei­chen Posi­tio­nen ohne die zwi­schen­zeit­li­chen gesell­schaft­li­chen Ent­wick­lun­gen ange­mes­sen aufzunehmen.

Die Gesellschaft ist zum Großteil digital nicht kompetent

Natür­lich sind Beob­ach­tun­gen aus dem eige­nen Umfeld allen­falls immer von anek­do­ti­scher Evi­denz. Es ist im Jahr 2025 aber immer noch nicht selbst­ver­ständ­lich, dass Lehr­kräf­te z.B. den Unter­schied zwi­schen einer Bild­schirm­er­wei­te­rung und einer Bild­schirm­spie­ge­lung ken­nen oder das Kon­zept der For­mat­vor­la­ge inner­halb einer Text­ver­ar­bei­tung nut­zen. Vie­le Fra­gen aus dem Bekann­ten­kreis zu IT-The­men sind von so basa­ler Natur – etwa zu unter­schied­li­chen Datei­for­ma­ten oder der Akti­vie­rung von Peri­phe­rie wie Mikro­fon oder Kame­ra in Video­kon­fe­ren­zen, dass die die For­de­rung nach mehr gesell­schaft­li­cher Medi­en­kom­pe­tenz in vie­len Fäl­len gar nicht erst greift, weil grund­le­gen­de Bedien­fä­hig­kei­ten feh­len oder das blo­ße rudi­men­tä­re Ver­ständ­nis von Daten­flüs­sen wie etwa die Unter­schei­dung zwi­schen WLAN- und Inter­net­zu­gang. Und For­de­run­gen oder Erwäh­nun­gen die­ser Art wer­den nicht sel­ten als „arro­gant“ geframed, weil sie natür­lich das Selbst­bild von Men­schen angreifen.

Die Ober­flä­chen der gro­ßen Digi­tal­kon­zer­ne sind aber so ein­fach gestal­tet, dass z.B. die kon­sump­ti­ve Teil­nah­me an Social­me­dia das alles gar nicht mehr vor­aus­setzt. Damit ent­steht die Illu­si­on von Kom­pe­tenz, die vie­le Erwach­se­ne ihrer­seits den Jugend­li­chen vor­wer­fen. Die­ses Defi­zit kann damit kaum reflek­tiert, aber die Illu­si­on der eige­nen Kom­pe­tenz durch das „Ausper­ren“ von Gerä­ten durch ein Ver­bot sehr wohl auf­recht erhal­ten wer­den. Wenn etwas „nicht mehr da ist“ ent­fällt u.a. der Druck, sich mit die­ser Stö­rung aktiv und den eige­nen Defi­zi­ten aus­ein­an­der­set­zen zu müssen.

Kinder sind sehr viel früher mit dem Handy alleingelassen

Smart­phones in Besitz von Kin­dern waren noch vor 10 Jah­ren an Grund­schu­len die Aus­nah­me, sind heu­te­zu­ta­ge aber eher die Regel. Eine Beglei­tung bei deren Nut­zung fin­det nur in Aus­nah­me­fäl­len statt. Kin­der sind also wesent­lich frü­her mit einem Gerät aus­ge­stat­tet, wel­ches Zugriff auf das gesam­te digi­ta­le Ange­bot bie­tet, wobei sehr vie­le davon nicht kind­ge­recht gestal­tet sind. Die übli­chen Mecha­nis­men des Jugend­me­di­en­schut­zes grei­fen nicht. Wäh­rend Por­no­hef­te und selbst Rum­trau­ben-Nuss­scho­ko­la­de(!) beim phy­si­schen Ver­kauf immer noch mit Alters­be­schrän­kun­gen ver­se­hen sind, gelingt der Zugang zu har­ter Por­no­gra­fie im Netz mühe­los. Gleich­zei­tig ent­wi­ckelt sich das Netz zuneh­mend algo­rith­mus­ge­trie­ben mit kapi­ta­lis­ti­schem Betriebs­sys­tem. Wer Auf­merk­sam­keit gene­riert, erhält Mehr­ein­nah­men durch u.a. Wer­bung. Die­sem Sog sind jun­ge Men­schen natur­ge­mäß viel mehr aus­ge­setzt als älte­re mit mehr Lebens­er­fah­rung. Die digi­ta­len Kom­pe­ten­zen haben sich gesell­schaft­lich nicht im glei­chen Maß ent­wi­ckelt wie die Mög­lich­kei­ten der Digi­tal­in­dus­trie, die Auf­merk­sam­keit von uns Nut­ze­rin­nen und Nut­zern zu bin­den. Daher ist für mich die Idee, dass es z.B. Medi­en­kom­pe­tenz allei­ne rich­ten wird, mitt­ler­wei­le aus der Zeit gefal­len. Ein Ver­bot kann im Ide­al­fall Räu­me schaf­fen, in dem die­ses stän­di­ge Wer­ben um Auf­merk­sam­keit zumin­dest für einen kur­zen Zeit­raum nicht greift. Sehr ent­schei­dend wird aber sein, was in die­sem Zeit­raum geschieht. Und da habe ich Fragen.

Schule allein kann das Problem nicht lösen

Geg­ner der Han­dy­nut­zungs­ver­bo­te füh­ren oft ins Feld, dass das Ver­bot der Nut­zung in der Schu­le eine unzu­rei­chen­de Reak­ti­on auf eine kom­ple­xes Pro­blem ist. Dum­mer­wei­se ist pro­ble­ma­ti­sche Han­dy­nut­zung ein gesell­schaft­li­ches Pro­blem und damit sei­ner­seits kom­plex. Kin­der und Jugend­li­che ler­nen am Modell. Fol­gen­de Beob­ach­tun­gen mache ich in mei­nem Umfeld und teil­wei­se bei mir selbst: Das „erwach­se­ne Modell“ nutzt digi­ta­le Gerä­te durch­aus beim Fami­li­en­es­sen, wäh­rend der Auto­fahrt oder gar hin­ter dem Lehr­kräf­te­pult im Unter­richt – dann natür­lich nur zu wich­ti­gen Zwe­cken, z.B. der Fami­li­en­or­ga­ni­sa­ti­on. Das erwach­se­ne Modell „ortet“ die eige­nen Kin­der mit den Funk­tio­nen von Steue­rungs-Apps oder einer Smart­watch und fin­det das zuneh­mend legi­tim, reagiert jedoch befrem­det auf die Ortungs­funk­ti­on auf Snap­chat für Freun­de oder auf Vor­schlä­ge, das Smart­phone auf der Klas­sen­fahrt zu Hau­se zu las­sen. Das erwach­se­ne Modell orga­ni­siert das Ver­eins­le­ben aus­schließ­lich über Mes­sen­ger­grup­pen eines Anbie­ters. Schu­le kann natür­lich ihren Teil leis­ten, um pro­ble­ma­ti­sche Nut­zungs­for­men zu reflek­tie­ren und Alter­na­ti­ven anzu­bie­ten – zumin­dest theo­re­tisch, da das Pro­blem der defi­zi­tä­ren Medi­en­kom­pe­tenz vie­ler Akteu­re ja bleibt (s.o.).
Die­ser Ansatz wird der Kom­ple­xi­tät der Anfor­de­rung jedoch kaum gerecht: Das Pro­blem wird zuneh­mend zivil­ge­sell­schaft­lich gelöst wer­den müs­sen, indem sich Erwach­se­ne stär­ker ver­net­zen und bei der Medi­en­er­zie­hung ihrer Kin­der unter­stüt­zen. Dar­in lie­gen Chan­cen eines gemein­sa­men Lern­pro­zes­ses, aber auch das Risi­ko von gerin­gem Pro­blem­be­wusst­sein in Hin­blick auf das eige­ne Ver­hal­ten als Erwachsener.
Ich fin­de hier die Ana­lo­gie mit den viel geschol­te­nen Eltern­ta­xis recht tref­fend: Jeder bestrei­tet, sei­ne Kin­der mit dem Auto zur Schu­le zu fah­ren, aber den­noch herrscht mor­gens das Ver­kehrs­chaos rund um Schu­len. Genau­so beglei­tet viel­leicht der ein oder ande­re sein Kind bei der Medi­en­nut­zung, wenn man sie oder ihn direkt anspricht.

Nicht bei Jugendlichen ansetzen

Das Pro­blem einer pro­ble­ma­ti­sche Nut­zung digi­ta­ler Medi­en ent­steht für mich nicht bei Kin­dern und Jugend­li­chen. Ich erle­be Kin­der und Jugend­li­che momen­tan sogar in Tei­len reflek­tier­ter als so man­chen Erwach­se­nen, wenn es z.B. um Fil­ter­kom­pe­tenz geht. Sie bau­en sich not­ge­drun­gen eigen­stän­dig Schutz­räu­me und ent­wi­ckeln Stra­te­gien zur Bewäl­ti­gung des Infor­ma­ti­ons­über­flus­ses. Den Ein­tritt in die digi­ta­le Welt ermög­li­chen aber letzt­lich Erwachsene.
Der Zugang zu Dau­er­schuld­ver­trä­gen wie Han­dy­ver­trä­gen ist in Deutsch­land sehr streng regu­liert. Kin­der und Jugend­li­che kom­men an kei­nen Han­dy­ver­trag ohne die Unter­schrift eines Erwach­se­nen. Erwach­se­ne zei­gen nach mei­ner Erfah­rung oft das glei­che pro­ble­ma­ti­sche Medi­en­ver­hal­ten wie ihre Kin­der (s.o.). Erwach­se­ne sind weit­ge­hend ahnungs­los in Bezug auf die sozia­len Dyna­mi­ken unter Jugend­li­chen auf Social­me­dia, obwohl auch in ihrem Umfeld pro­ble­ma­ti­sches Medi­en­ver­hal­ten durch­aus vor­kommt, wenn­gleich oft nicht in der­art star­ker Prä­senz. Trotz­dem erle­be ich, dass die Ein­rich­tung zusätz­li­cher Mes­sen­ger­grup­pen von Erwach­se­nen zuneh­mend skep­tisch gese­hen wird. Es ran­giert die Sor­ge, noch mehr durch digi­ta­le Kon­takt­ver­su­che gebun­den zu wer­den. Die Mög­lich­keit, Noti­fi­ca­ti­ons – also Piep­tö­ne und Vibra­ti­on – beim Ein­tref­fen von Nach­rich­ten zu deak­ti­vie­ren kann oft schon auf der Bedien­ebe­ne nicht umge­setzt wer­den und wird dar­über­hin­aus ger­ne mit der Begrün­dung abge­lehnt, dass man dadurch wich­ti­ge Nach­rich­ten ja nicht mehr wahr­neh­men wür­de. Die glei­chen Erwach­se­nen echauf­fie­ren sich nicht sel­ten über das gefähr­li­che Sucht­po­ten­ti­al von Social­me­dia bei Kin­dern und Jugend­li­chen. Es sind nicht sie: Wir Erwach­se­ne müs­sen unser eige­nes Medi­en­ver­hal­ten reflek­tie­ren, bevor wir mit unse­ren Kin­dern in die Dis­kus­si­on gehen. Wir müs­sen zunächst das Modell sein, von dem wir uns wün­schen, dass Kin­der und Jugend­li­che dar­an lernen.

Die Chance von Nutzungsverboten

Nut­zungs­ver­bo­te ver­schaf­fen Schu­len und Kin­dern bzw. Jugend­li­chen im Ide­al­fall etwas Raum zum Atmen, damit das, was in den letz­ten Jah­ren an infor­ma­ti­scher Grund­bil­dung und Medi­en­kom­pe­tenz­för­de­rung ver­säumt wor­den ist, etwas hin­ter­her­kom­men kann.
Es bleibt ein Not­be­helf, um z.B. den lern­för­der­li­chen Umgang mit digi­ta­len Arbeits­ge­rä­ten gezielt zu för­dern – bei Lehr­kräf­ten eben­so wie bei Schü­le­rin­nen und Schü­lern. Auch für eine Refle­xi­on des Medi­en­ver­hal­tens soll­te die­ser tem­po­rä­re Schutz­raum genutzt wer­den. Das Ziel soll­te aber schluss­end­lich sein, dass man irgend­wann auf die­se Ver­bo­te ver­zich­ten kann.

Was nicht gesche­hen darf ist, dass die­ser neue Schutz­raum genutzt wird, um Schu­le so wie sie ist wei­ter zu erhal­ten. Das Rad wird sich in Schu­le nicht auf vor­di­gi­ta­le Zei­ten zurück­dre­hen las­sen, wie es sich die ein oder ande­re Lehr­kraft viel­leicht wün­schen mag.

1 2 3 150