Wie Sprachmodelle unsere Gesellschaft verändern werden

Ein Blick ins Klassenzimmer

Mar­tha hat eine Eng­lisch­haus­auf­ga­be bekom­men. Sie soll einen Text über die drei bekann­tes­ten Sehens­wür­dig­kei­ten von New York schrei­ben. New York steht im Zen­trum der aktu­el­len Unit im Eng­lisch­buch. Mar­tha ist nicht sehr gut in Eng­lisch. Aber die App auf ihrem Han­dy ist direkt an ChatGPT ange­dockt. ChatGPT ist eine künst­li­che Intel­li­genz, die auf mög­lichst natür­li­che Text­aus­ga­be opti­miert ist. Mar­tha tippt in ihre App: „Wri­te an artic­le about the three most famous sights in New York.“, denn das ist die Auf­ga­ben­stel­lung, die ihre Leh­re­rin ihr gege­ben hat. Her­aus kommt fol­gen­der Text (abge­druckt ist die unver­än­der­te Ausgabe):

New York City is one of the world’s most vibrant and exci­ting desti­na­ti­ons. Known for its diver­se cul­tu­re, bust­ling streets, and ico­nic land­marks, the city is a hub of enter­tain­ment and com­mer­ce. From the bright lights of Times Squa­re to the gran­deur of the Sta­tue of Liber­ty, New York offers a wealth of sights to explo­re. In this artic­le, we will take a clo­ser look at the three most famous sights in the city.

1. The Sta­tue of Liberty

The Sta­tue of Liber­ty is one of the most ico­nic land­marks in New York City. Loca­ted on Liber­ty Island, the sta­tue was gifted to the United Sta­tes by the peo­p­le of France in 1886 as a sym­bol of free­dom and demo­cra­cy. The sta­tue is 151 feet tall and is made of cop­per pla­tes, which have tur­ned green over time due to weathering.

Visi­tors can take a fer­ry to Liber­ty Island and climb to the top of the pedes­tal or even to the crown of the sta­tue for pan­o­r­amic views of the city sky­line and har­bor. The sta­tue is also visi­ble from Bat­tery Park in Lower Man­hat­tan, whe­re visi­tors can take in the stun­ning view of the sta­tue against the back­drop of the city.

1. The Empire Sta­te Building

The Empire Sta­te Buil­ding is a towe­ring sky­scra­per loca­ted in Mid­town Man­hat­tan. It was com­ple­ted in 1931 and was the world’s tal­lest buil­ding until 1971. The buil­ding stands at 1,454 feet tall and has 102 flo­ors. Visi­tors can take an ele­va­tor to the obser­va­ti­on deck on the 86th flo­or for breath­ta­king views of the city sky­line. On a clear day, visi­tors can see up to 80 miles in every direction.

The Empire Sta­te Buil­ding has been fea­tured in num­e­rous movies and is a popu­lar tou­rist desti­na­ti­on. The building’s art deco archi­tec­tu­re is a sight to behold, and the night­ti­me light­ing dis­play is an ico­nic part of the city skyline.

1. Cen­tral Park

Cen­tral Park is a vast green space loca­ted in the heart of Man­hat­tan. The park covers 843 acres and is a popu­lar desti­na­ti­on for both locals and tou­rists. Visi­tors can explo­re the park on foot, by bike, or even by hor­se-drawn car­ria­ge. The park fea­tures num­e­rous wal­king paths, gar­dens, lakes, and ponds, as well as famous land­marks such as the Cen­tral Park Zoo and the Bethes­da Fountain.

In the win­ter, visi­tors can go ice-ska­ting at the Woll­man Rink, and in the sum­mer, the­re are num­e­rous con­certs and events held in the park. Cen­tral Park is a wel­co­me respi­te from the hust­le and bust­le of the city and pro­vi­des a tran­quil oasis in the heart of Manhattan.

In con­clu­si­on, New York City is home to many famous sights, but the Sta­tue of Liber­ty, Empire Sta­te Buil­ding, and Cen­tral Park are three of the most ico­nic. The­se land­marks repre­sent the city’s histo­ry, cul­tu­re, and natu­ral beau­ty and are must-see desti­na­ti­ons for anyo­ne visi­ting the city. Whe­ther you’­re a first-time visi­tor or a lifel­ong New Yor­ker, the­se sights never cea­se to ama­ze and inspire.

Mar­tha mel­det sich und liest ihren Text vor. Ihre Lehr­kraft ist ver­wun­dert. Die­ser Text ent­spricht über­haupt nicht Mart­has bis­her im Unter­richt gezeig­ten Fähig­kei­ten. Sie hat den Ver­dacht, dass die­ser Text von irgend­wo­her kopiert sein könn­te – fin­det im Netz aber nichts. Mar­tha erhält eine gute Note.

Han­nes und Fred prä­sen­tie­ren ihren Text im Unter­richt. Eigent­lich lässt sich zum Inhalt wenig Schlech­tes sagen, aber das Geschrie­be­ne erin­nert dann doch mehr an Gespro­che­nes: Satz­zei­chen­in­fla­ti­on am Satz­en­de, kaum Groß- und Klein­schrei­bung und die Zei­chen­set­zung ist opti­mier­bar – oder gar nicht erst vor­han­den. Han­nes und Fred kopie­ren ihren Text dar­auf­hin in https://www.deepl.com/write . Das ist ein KI-basier­ter Web­dienst, der kei­ne Daten sam­melt und bis 2000 Zei­chen kos­ten­los ohne Account nutz­bar ist. Deepl ist eigent­lich ein sehr gutes Über­set­zungs­werk­zeug, kann in einer Beta­ver­si­on jetzt aber auch Tex­te sti­lis­tisch über­ar­bei­ten. Han­nes und Fred schau­en sich die vor­ge­schla­ge­nen Ände­run­gen an. Eini­ges gefällt ihnen, eini­ges scheint den Sinn ihres Tex­tes zu stark zu ver­än­dern. Sie ent­schei­den sich dazu, eini­ge Pas­sa­gen zu ändern, weil sie durch die Ände­run­gen wirk­lich bes­ser klingen.

Die­se bei­den Bei­spie­le zei­gen, was heu­te für alle bereits mit sprach­ba­sier­ter künst­li­cher Intel­li­genz mög­lich ist. Wäh­rend das ers­te Bei­spiel in vie­len Kol­le­gi­en in deut­schen Schu­len für Auf­ruhr sorgt, wenn das Poten­ti­al von Sprach­mo­del­len dort über­haupt ankommt, zeigt das zwei­te Bei­spiel, dass Sprach­mo­del­le gera­de unsi­che­re Schrei­ber sehr gut unter­stüt­zen könnten.

Die Auseinandersetzung über ChatGPT in sozialen Netzwerken

Zwi­schen die­sen bei­den Polen bewe­gen sich manch­mal emo­tio­nal sehr auf­ge­la­de­ne Dis­kus­sio­nen in sozia­len Netz­wer­ken. Die einen sehen bestehen­de Struk­tu­ren und Auf­ga­ben­for­ma­te in Gefahr, die ande­re expe­ri­men­tie­ren mutig mit den sich erge­ben­den neu­en Mög­lich­kei­ten. Die­se Expe­ri­men­te bewe­gen sich oft pri­mär auf einer phä­no­me­no­lo­gi­schen Ebe­ne: Im Kern geht es dar­um, die Ein­ga­ben („Prompts“) zu fin­den, die eine vor­her erdach­te Auf­ga­ben­stel­lung mit Hil­fe eines Sprach­mo­dells opti­mal lösen.

Natür­lich bleibt die Aus­ein­an­der­set­zung vor­erst phä­no­me­no­lo­gisch. Man gibt sich Tipps, wel­che Ein­ga­ben zu einem gewünsch­ten Ergeb­nis füh­ren und wie der Chat­Bot in z.B. eine ande­re Rol­le ein­neh­men kann. Das klappt auf der Ober­flä­che. Die tech­ni­schen Abläu­fe in einem Sprach­mo­dell sind gar nicht so leicht zu verstehen.

Was ist ein Sprachmodell eigentlich?

Ein Sprach­mo­dell ist eine sehr kom­ple­xe Soft­ware, die zur Klas­se der künst­li­chen Intel­li­genz gezählt wird. Schon der Begriff „Intel­li­genz“ ist je nach Fach­dis­zi­plin nicht ein­fach zu defi­nie­ren. Daher spre­chen eini­ge Fach­leu­te lie­ber von „maschi­nel­lem Ler­nen“, was das Defi­ni­ti­ons­pro­blem jedoch ledig­lich auf den Begriff des Ler­nens ver­schiebt. Als Aus­weg aus die­sem Dilem­ma haben eine Rei­he von Autor:innen nicht nur aus dem Infor­ma­tik­um­feld fol­gen­de Arbeits­de­fi­ni­ti­on für künst­li­che Intel­li­genz vorgeschlagen:

Künst­li­che Intel­li­genz bezeich­net die Fähig­keit von Com­pu­ter­sys­te­men, auf sie zuge­schnit­te­ne Auf­ga­ben selbst­tä­tig zu lösen, die auf­grund ihrer Kom­ple­xi­tät bis­lang mensch­li­che Fähig­kei­ten erfor­der­ten”1

Ange­wen­det: Sprach­mo­del­le lösen nun selbst­stän­dig das Pro­blem der Erstel­lung von Tex­ten auf Basis von Ein­ga­ben, die Nutzer:innen vor­ge­ben. Aber wie machen sie das?

In den Anfangs­zei­ten von künst­li­cher Intel­li­genz waren die Auf­ga­ben und Mög­lich­kei­ten von IT-Sys­te­men noch etwas beschränk­ter. Ein sehr ein­fa­ches Bei­spiel sind die dama­li­gen Obst­waa­gen in den Fri­sche­ab­tei­lun­gen der Super­märk­te. Der Kun­de füll­te eine Ware in einen Beu­tel, ging zur einer Waa­ge, leg­te den Beu­tel auf und drück­te eine Tas­te mit einem Sym­bol oder einer Num­mer. Die Waa­ge druck­te dann einen Kas­sen­zet­tel mit Strich­code aus. Es waren aber nicht alle Kun­den ehr­lich, so dass man auf die Idee kam, die­se Waa­gen durch eine Kame­ra zu ergän­zen, mit deren Hil­fe die auf­ge­leg­te Ware erkannt wer­den konn­te, z.B. anhand von Grö­ße oder Far­be. Im Prin­zip konn­te man drei Fäl­le unterscheiden:

a) Wenn der Tas­ten­druck des Kun­den zur erkann­ten Ware pass­te, war die Ent­schei­dung eindeutig.

b) Wenn der Tas­ten­druck ein­deu­tig nicht zur auf­ge­leg­ten Ware pass­te, konn­te ein alter­na­ti­ver Kas­sen­zet­tel gedruckt werden.

c) Wenn die Erken­nung selbst unein­deu­tig war, d.h. zwei Pro­duk­te in Fra­ge kom­men wür­den, aber der Kun­de z.B. die Tas­te mit dem teu­re­ren Pro­dukt gedrückt hat, wur­de natür­lich die teu­re­re Vari­an­te gewählt – gleich­zei­tig ließ sich die­se Situa­ti­on abspei­chern, so dass sie für die Zukunft mit berück­sich­tigt wer­den konnte.

Die­se Waa­ge erzeug­te also auf Basis von Ein­ga­ben und der Bil­der der Kame­ra (Ein­ga­be­schicht) Daten, die sie ver­ar­bei­te­te (Ver­ar­bei­tungs­schicht). Bei der Ver­ar­bei­tung flos­sen die Ein­ga­be­da­ten eben­so ein, wie gespei­cher­te Fäl­le aus einer Daten­bank. Die Daten wur­den unter­ein­an­der gewich­tet, mit einer Daten­bank vol­ler Stan­dard­fäl­le abge­gli­chen und dann eine Aus­ga­be in Form eines Kas­sen­zet­tels erzeugt (Ausgabeschicht).Mit einer gewis­sen Wahr­schein­lich­keit stimm­ten dann Kas­sen­zet­tel und Pro­dukt tat­säch­lich über­ein. Die Wahr­schein­lich­keit der Über­ein­stim­mung war umso grö­ßer, je mehr Stan­dard­fäl­le in der Daten­bank der Waa­ge erfasst wur­den und je mehr Ein­ga­ben die „intel­li­gen­te Waa­ge“ bereits ver­ar­bei­tet hat­te. Softwarentwickler:innen konn­ten die Stan­dard­fäl­le in Form einer Daten­bank vorgeben.

Sprach­mo­del­le funk­tio­nie­ren nach einem ähn­li­chen Prin­zip, nur dass die Stan­dard­fäl­le und Aus­ga­ben ungleich kom­ple­xer sind als bei dem Bei­spiel der Waa­ge. Zudem ist ver­hält­nis­mä­ßig wenig dar­über bekannt, mit wel­chen Daten die zugrun­de­lie­gen­den Daten­ban­ken gefüllt wur­den. Letzt­lich gilt aber auch hier, dass die Aus­ga­ben ledig­lich mit einer gewis­sen Wahr­schein­lich­keit kor­rekt sind oder gar zur Anfra­ge des Nut­zen­den pas­sen – daher ver­hal­ten sich Han­nes und Fred deut­lich smar­ter als Martha.

Es mag auf den ers­ten Blick erstau­nen, dass Sprach­mo­del­le Aus­ga­ben in der momen­ta­nen Qua­li­tät lie­fern. Wir hal­ten Spra­che für ein kom­ple­xes Sys­tem und wür­den einer Maschi­ne deren Imi­ta­ti­on zunächst nicht so recht zutrau­en. Aller­dings sind Sprach­mo­del­le nicht ein­fach vom Him­mel gefallen.

Die Grund­la­gen wur­den schon früh gelegt: Sprachassistent:innen wie Siri, Ale­xa, Cort­a­na usw. sind schon län­ger in der Lage gespro­che­ne Spra­che zu erken­nen und Reak­tio­nen auf ein­fa­che Ein­ga­ben zu erzeugen.

In der Infor­ma­tik gilt der Grundsatz:

Wenn du eine Soft­ware oder KI bau­en kannst, die etwas erkennt, kannst du auch eine Soft­ware oder KI bau­en, die das­sel­be Ding imi­tiert.“2

Neben­bei bemerkt wird durch die­sen schlich­ten Satz auch klar, dass jedes Sicher­heits­sys­tem, das auf der Erken­nung von z.B. mensch­li­cher Spra­che oder der Erken­nung von Gesich­tern basiert, kei­ne gute Idee zur Her­stel­lung von Sicher­heit ist – wenn es künst­li­che Intel­li­genz gibt, die mensch­li­che Spra­che und mensch­li­che Gesich­ter imi­tie­ren kann und die­se sich zudem wei­ter entwickelt.

Einen wei­te­ren Ein­blick in die Kom­ple­xi­tät von Sprach­mo­del­len bie­ten übri­gens auch deren Hard­ware­an­for­de­run­gen. Vor kur­zem tauch­te Face­books Sprach­mo­dell „LLaMA“ im Netz auf. Ein hand­li­cher Down­load von 268GB ent­hält unter­schied­li­che Sprach­mo­dell­va­ri­an­ten. In der ein­fachs­ten 7B Vari­an­te benö­tigt LLaMA zwi­schen 12–16GB an VRAM einer Gra­fik­kar­te, mög­lichst vie­le Pro­zes­sor­ker­ne und RAM. Die Ver­ar­bei­tungs­zei­ten selbst ein­fa­cher Prompts auf Stan­dard­hard­ware bewe­gen sich jen­seits erträg­li­cher Wer­te. Damit ist zumin­dest für den Moment klar, dass auf Basis des heu­ti­gen Wis­sens­stan­des nur sehr weni­ge Mark­teil­neh­mer in der Lage sein wer­den, in der Brei­te ver­füg­ba­re Sprach­mo­del­le sta­bil zu betreiben.

Mögliche Auswirkungen auf das kommerzialisierte Internet

Der dazu not­wen­di­ge immense Ener­gie­ver­brauch ist in die­sem Kon­text letzt­lich eine Fuß­no­te, weil Sprach­mo­del­le das Poten­ti­al besit­zen, das Netz in sei­ner Struk­tur fun­da­men­tal zu verändern.

Gera­de das kom­mer­zi­el­le Inter­net besteht aus einer Viel­zahl von Tex­ten, die einen Gebrauchs­cha­rak­ter auf­wei­sen: Nach­rich­ten, Sport­be­rich­te, Pro­dukt­be­schrei­bun­gen und Zusam­men­fas­sun­gen sind durch Sprach­mo­del­le mit rela­tiv begrenz­ten Anwei­sun­gen und Ein­ga­ben auto­ma­ti­siert erstell­bar. Die dazu not­wen­di­gen Daten lie­gen teil­wei­se bereits in digi­ta­li­sier­ter Form vor. Es wird z.B. bei Hand­ball­spie­len ein dezi­dier­tes Spiel­pro­to­koll geführt, aus dem ein heu­ti­ges Sprach­mo­dell mühe­los und weit­ge­hend auto­ma­ti­siert einen Spiel­be­richt erstel­len kann.

Das wird sowohl immense Aus­wir­kun­gen auf jeden Mark­teil­neh­mer haben, der sich mit Con­ten­ter­stel­lung beschäf­tigt, als auch den Such­ma­schi­nen­markt kom­plett ver­än­dern: Der zur Such­an­fra­ge pas­sen­de Inhalt kann theo­re­tisch indi­vi­du­ell gene­riert wer­den – natür­lich auch aus kom­mer­zi­el­len Quel­len. Das wer­den damit span­nen­de Zei­ten für das Leis­tungsschutz­recht: Zitie­ren auch klei­ne­rer Text­pas­sa­gen ist im Prin­zip nicht mehr not­wen­dig. Die Ergeb­nis­se wer­den einer signi­fi­kant gro­ßen Anwender:innengruppe voll­kom­men aus­rei­chen. Die dann ggf. höf­li­cher­wei­se mit ange­ge­be­nen Ori­gi­nal­quel­len erfah­ren kei­ne Auf­merk­sam­keit durch Klicks und Besu­che mehr – einer immens wich­ti­gen ideel­len Wäh­rung im Netz. Damit wer­den ins­be­son­de­re die Inter­net­gi­gan­ten es noch effek­ti­ver bewerk­stel­li­gen, Nutzer:innen in ihrem eige­nen digi­ta­len Öko­sys­tem zu hal­ten. Micro­soft unter­nimmt bereits ers­te Schrit­te mit Bing­AI und der Inte­gra­ti­on von sprach­mo­dell­ba­sier­ter Kor­rek­tur­funk­tio­nen in sei­ne Office­pro­duk­te. Goog­le holt als Reak­ti­on sei­nen auf Lam­da basier­ten Chat­bot „Bard“ wie­der auf die Büh­ne, des­sen Pro­duk­tiv­be­trieb zunächst auf Basis von ethi­schen Beden­ken ver­wor­fen wur­de: Bard konn­te per Sprach­aus­ga­be täu­schend ech­te Anru­fe z.B. zur Reser­vie­rung von Restau­rant­ti­schen oder Essens­be­stel­lun­gen auf Basis von ein­fa­chen Prompts rea­li­sie­ren. Das poten­ti­el­le Miss­brauchs­po­ten­ti­al die­ser Funk­tio­nen stand einer Markt­ein­füh­rung 2021 noch im Weg.

Sprachmodelle als Unterstützung bei Anträgen und Dokumentationen

Deutsch­land hat ein aus­ge­präg­tes Doku­men­ta­ti­ons- und Antrags­we­sen in unter­schied­li­chen Berei­chen eta­bliert: In der Medi­zin z.B. der Arzt­be­richt, in För­der­pro­gram­men umfang­rei­che Anträ­ge, in der Pfle­ge kom­ple­xe Doku­men­ta­tio­nen, Pro­to­kol­le von allen mög­li­chen Sit­zun­gen – die Lis­te lie­ße sich belie­big fort­set­zen. Allen die­sen „Text­gat­tun­gen“ ist gemein, dass sie oft sehr sche­ma­tisch sind – sche­ma­ti­sche Tex­te sind schon heu­te eine Domä­ne von Sprachmodellen.

Sprach­mo­del­le wer­den dabei hel­fen, Men­schen von die­sen sche­ma­ti­schen Auf­ga­ben zu ent­las­ten. Für spe­zi­el­le Fach­be­rei­che sind Text­ge­ne­ra­to­ren denk­bar, die pri­mär mit fach­be­zo­ge­nen Inhal­ten trai­niert wer­den. Dadurch kön­nen sie bei Rou­ti­ne­auf­ga­ben unter­stüt­zen, wenn­gleich nach heu­ti­gem Stand immer noch eine Über­prü­fung der Aus­ga­ben durch einen sach­kun­di­gen Men­schen erfor­der­lich ist.

Aber auch in die­sem Feld ist es kom­pli­ziert. Neh­men wir das Antrags­we­sen in För­der­pro­gram­men: Die teil­wei­se hohen Anfor­de­run­gen an För­der­an­trä­ge die­nen dazu, den Zugriff auf eine begrenz­te Res­sour­ce (z.B. Geld oder Per­so­nal) zu begren­zen. Sprach­mo­del­le wer­den natür­lich dabei hel­fen, bis­her nicht aus­rei­chend genutz­te För­der­mit­tel tat­säch­lich abru­fen zu kön­nen. Es gibt jedoch Res­sour­cen, die völ­lig über­lau­fen sind – etwa die son­der­päd­ago­gi­schen Unter­stüt­zungs­an­ge­bo­te in Schu­len. Auch hier wer­den Sprach­mo­del­le z.B. bei der Erstel­lung von Gut­ach­ten unter­stüt­zen, jedoch blei­ben gera­de per­so­nel­le Res­sour­cen wei­ter­hin knapp. Damit wird der Zugang zu eben­die­sen Res­sour­cen auf ande­ren Wegen erschwert wer­den: Ein gut begrün­de­ter Antrag steht ledig­lich in Kon­kur­renz zu ande­ren sehr gut begrün­de­ten Anträgen.

Sprachmodelle als neutralere Entscheidungsinstanzen?

Sascha Lobo setzt sich in sei­ner Kolum­ne KI kann mensch­li­che Ver­ant­wor­tung nicht erset­zen? – Doch!“ mit der Stel­lung­nah­me des deut­schen Ethik­ra­tes zu künst­li­cher Intel­li­genz aus­ein­an­der. Er for­dert, dass künst­li­che Intel­li­genz in bestimm­ten Berei­chen an die Stel­le der mensch­li­chen Ent­schei­dung tritt – genau da fällt für den deut­schen Ethik­rat die letz­te Gren­ze. Als Bei­spiel kann die Dia­gno­se eines Arz­tes die­nen: Ein spe­zi­ell mit medi­zi­ni­schem Wis­sen trai­nier­tes Sprach­mo­dell könn­te dabei unter­stüt­zen. Als Ein­ga­be die­nen z.B. Labor- und Ana­mne­se­da­ten. Das spe­zia­li­sier­te Sprach­mo­dell könn­te denk­ba­re Erkran­kun­gen auf Basis die­ser Daten ermit­teln und wäre dabei nicht auf das Wis­sen einer Ein­zel­per­son beschränkt.

Für Sascha Lobo ist das ein Fall, bei dem sich die Fra­ge nach dem Ein­satz von Sprach­mo­del­len nicht stellt, son­dern für ihn ver­bind­lich sein soll­te, weil das spe­zia­li­sier­te Sprach­mo­dell dem Men­schen über­le­gen sei. Die­se Argu­men­ta­ti­on erscheint zunächst bestechend – aller­dings ist ein Modell immer nur so gut wie des­sen Ein­ga­be­da­ten, die hier im Rah­men einer Ana­mne­se durch einen Men­schen ent­ste­hen. Das kann bei eini­gen Krank­heits­bil­dern kom­plex und feh­ler­träch­tig sein – gera­de in Zwei­fels­fäl­len: Die glei­che Krank­heit kann bei unter­schied­li­chen Men­schen völ­lig unter­schied­li­che Sym­pto­me aus­lö­sen – es wird eine span­nen­de Fra­ge in wel­chem ggf. lücken­haf­ten Ver­hält­nis das Erfah­rungs­wis­sen eines Men­schen und des­sen Inter­ak­ti­ons­mög­lich­kei­ten mit ande­ren zu der von einer KI gelie­fer­ten Infor­ma­ti­on steht.

Sprachmodelle und Bildungsprozesse

Kom­men wir am Schluss noch ein­mal zurück zu Mar­tha, Han­nes und Fred: Sie wach­sen in einer Welt auf, in der Sprach­mo­del­le mit ihren immer men­schen­ähn­li­che­ren Inter­faces wie ChatGPT in ganz kur­zer Zeit selbst­ver­ständ­lich sein wer­den – gera­de auch in Kom­bi­na­ti­on mit Sprach­ein- und ‑aus­ga­be. Nie wie­der schu­li­sche Übungs­tex­te? Nie wie­der Haus­auf­ga­ben mit künst­li­chen Auf­ga­ben­stel­lun­gen? Sind Haus­auf­ga­ben gar tot? Wenn doch heu­te ein­fa­ches „Promp­ting“ ausreicht?

Ent­schei­dend beim Schrei­ben ist der gedank­li­che Pro­zess bei der Erstel­lung eines Tex­tes. Wenn wir an die Stel­le des Schreib­pro­zes­ses Promp­ting bei einem Sprach­mo­dell set­zen und den Schreib­pro­zess selbst auto­ma­ti­sie­ren, ver­schie­ben wir den Lern­pro­zess auf eine ande­re Ebe­ne. Die­se Ebe­ne erfor­dert letzt­lich gro­ße Beur­tei­lungs­kom­pe­ten­zen, die sich bei Schreib­ler­nen­den wie Mar­tha, Han­nes und Fred noch in einer sen­si­blen Ent­wick­lungs­pha­se befin­den und damit in vie­len Fäl­len eine Über­for­de­rung dar­stel­len müs­sen. Gleich­zei­tig gehen mit eini­ger Wahr­schein­lich­keit schreib­kom­pe­ten­ten Men­schen durch die Nut­zung von Sprach­mo­del­len Trai­nings- und Denk­pro­zes­se bei eigent­li­chen Erstel­len von Tex­ten ver­lo­ren. An deren Stel­le tre­ten Mecha­nis­men zur Ent­wick­lung und Modi­fi­ka­ti­on von geeig­ne­ten Prompts. Genau die­se Vor­ge­hens­wei­sen und Anwen­dun­gen wer­den bereits in gro­ßer Brei­te in den sozia­len Medi­en dis­ku­tiert. War­um den Ein­füh­rungs­text zu Imma­nu­el Kant aus dem Schul­buch lesen? Las­sen wie Schüler:innen doch ein­fach mit einem Chat­Bot „Imma­nu­el Kant“ chat­ten, den eine Lehr­kraft zuvor per „Mega­prompt“ mit Hil­fe eines Sprach­mo­dells erschaf­fen hat und der auf die indi­vi­du­el­len Fra­gen der Schüler:innen eingeht.

Sprach­mo­del­le selbst kön­nen auf­grund ihrer Kom­ple­xi­tät nur von gro­ßen Markt­teil­neh­mern betrie­ben wer­den – das wirft die Fra­ge nach neu­en Abhän­gig­keits­ebe­nen auf, gera­de im Bildungssystem.

Chancen und neue Herausforderungen

Sprach­mo­del­le berüh­ren einen Bereich, der eine Gesell­schaft aus­macht: Die Kom­mu­ni­ka­ti­on und den Umgang mit Spra­che. Sie sind nach Maß­stä­ben der Digi­ta­li­sie­rung nichts wirk­lich Neu­es, wie Goo­gles Chat­Bot „Bard“ bereits vor drei Jah­ren zeig­te. Mit ChatGPT steht erst­mals ein Inter­face zum Sprach­mo­dell GPT zur Ver­fü­gung, was durch vie­le Men­schen nie­der­schwel­lig nutz­bar ist. Vie­le Anfor­de­run­gen wer­den noch nicht zufrie­den­stel­lend gelöst. Jedoch kön­nen Sprach­mo­del­le auf Mil­lio­nen von Nutzer:inneneingaben zurück­grei­fen und auf deren Basis wei­ter­ent­wi­ckelt wer­den. Bereits auf dem Stand der heu­ti­gen Ent­wick­lung ist immenses Poten­ti­al auf unter­schied­li­chen Ebe­nen erahn­bar. Gleich­zei­tig tre­ten ganz neue Fra­ge­stel­lun­gen auf, die vor allem Juris­ten und Ethi­ker beschäf­ti­gen wer­den. Die Kom­ple­xi­tät bei der Modi­fi­ka­ti­on und dem Betrieb von Sprach­mo­del­len wird dafür sor­gen, dass sie pri­mär in der Hand der Inter­net­gi­gan­ten blei­ben wer­den. Was die­se ohne wirk­sa­me staat­li­che Regu­lie­rung dar­aus machen wer­den, bleibt eine offe­ne Frage.

1 Geth­mann, Bux­mann Dis­tel­rath, Humm, Ling­ner, Nit­sch, Schmidt, Spiecker genannt Döh­mann: „Künst­li­che Intel­li­genz in der For­schung – Neue Mög­lich­kei­ten und Her­aus­for­de­run­gen für die Wis­sen­schaft“, S. 10, aus der Rei­he: Ethics of Sci­ence and Tech­no­lo­gy Assess­ment Bd. 48, bei: Springer

Facebook Like

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert