{"id":4164,"date":"2025-07-14T07:00:00","date_gmt":"2025-07-14T05:00:00","guid":{"rendered":"https:\/\/www.my-it-brain.de\/wordpress\/?p=4164"},"modified":"2025-07-08T19:13:13","modified_gmt":"2025-07-08T17:13:13","slug":"meine-anwendungsfaelle-fuer-die-nutzung-grosser-sprachmodelle-in-2025","status":"publish","type":"post","link":"https:\/\/www.my-it-brain.de\/wordpress\/meine-anwendungsfaelle-fuer-die-nutzung-grosser-sprachmodelle-in-2025\/","title":{"rendered":"Meine Anwendungsf\u00e4lle f\u00fcr die Nutzung gro\u00dfer Sprachmodelle in 2025"},"content":{"rendered":"\n<p>Heute berichte ich \u00fcber meine Nutzung gro\u00dfer Sprachmodelle (engl. <a href=\"https:\/\/de.wikipedia.org\/wiki\/Large_Language_Model\">Large Language Model, kurz LLM<\/a>) und freue mich, wenn ihr eure Erfahrungen in den Kommentaren oder vielleicht sogar einem eigenen Blog mit mir teilt.<\/p>\n\n\n\n<p>Ich konzentriere mich in diesem Text auf Beispiele, in denen mich die Nutzung von LLMs in meiner Arbeit unterst\u00fctzt. Dies soll nicht dar\u00fcber hinwegt\u00e4uschen, dass LLMs halluzinieren und falsche Antworten produzieren k\u00f6nnen. Auch hierzu finden sich diverse Beispiele, die den Fokus des Artikels jedoch verschieben und den Umfang sprengen w\u00fcrden.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Bilder f\u00fcr Pr\u00e4sentationen<\/h2>\n\n\n\n<p>Ich nutze ChatGPT und Gemini, um Bilder f\u00fcr Pr\u00e4sentationen zu generieren. Dabei hat bis jetzt ChatGPT die Nase vorn.<\/p>\n\n\n\n<p>Zuvor habe ich Bilder entweder selbst erstellt oder Stunden mit der Suche in Datenbanken mit lizenzfreien Bildern verbracht. Dies war f\u00fcr mich stets eine sehr frustrierende Erfahrung. Nun kann ich beschreiben, was ich in einem Bild sehen m\u00f6chte und die K\u00fcnstliche Intelligenz in Form eines LLM generiert mir entsprechende Bilder. Dies bringt f\u00fcr mich eine gro\u00dfe Zeitersparnis und ich habe weniger Stress.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Zusammenfassung langer Texte und Diskussionen<\/h2>\n\n\n\n<p>Damit ist jetzt nicht gemeint, dass ich mir E-Mails mit mehr als f\u00fcnf S\u00e4tzen zusammenfassen lasse. Aber auf der Arbeit erlebe ich es h\u00e4ufig, dass ich mal kurz nicht in eine Google Group geschaut habe und pl\u00f6tzlich eine Diskussion mit 40-70 Beitr\u00e4gen darin finde. Diesen Diskussionen zu folgen war in der Vergangenheit sehr zeitaufwendig bis hinzu unm\u00f6glich. Und wir haben sehr viele Maillinglisten.<\/p>\n\n\n\n<p>Wir haben auf der Arbeit <a href=\"https:\/\/workspace.google.com\/intl\/de\/\">Google Workspace<\/a> und ich gebe gerne zu, dass sich damit bereits ohne KI-Unterst\u00fctzung super arbeiten l\u00e4sst. Die nahtlose Integration von Gemini macht es allerdings noch besser.<\/p>\n\n\n\n<p>Wenn ich eine E-Mail Diskussion \u00f6ffne, kann ich mir mit einem Klick eine Zusammenfassung erstellen lassen. Folgender Prompt hat sich bisher als n\u00fctzlich erwiesen, um mir einen \u00dcberblick zu verschaffen: \u201eErstelle eine kurze Zusammenfassung, die den Diskussionsgegenstand wiedergibt. F\u00fchre auf, wer welche Argumente vertritt. Falls es L\u00f6sungsvorschl\u00e4ge und Action Items gibt, liste diese stichpunktartig auf.\u201c<\/p>\n\n\n\n<p>Anhand der Zusammenfassung kann ich in kurzer Zeit beurteilen, ob eine Diskussion f\u00fcr mich von Relevanz ist oder nicht. Auch hier ist der Vorteil durch Nutzung der KI im Allgemeinen die Zeitersparnis und im Speziellen die gute Integration in die vorhandenen Werkzeuge. Ich w\u00fcrde mir nicht die M\u00fche machen, alle Nachrichten einer langen Diskussion in einen Prompt zu kopieren, um diese dann von einem LLM analysieren zu lassen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Generierung von Textvorschl\u00e4gen f\u00fcr E-Mails<\/h2>\n\n\n\n<p>Ich wei\u00df, was ich sagen m\u00f6chte und dr\u00fccke mich gerne direkt aus. Das kommt in der Kommunikation mit internationalen Empf\u00e4ngern aus anderen Kulturkreisen nicht immer gut an. Ich sch\u00e4tze auch hier die gute Integration von Gemini in Google Mail, wo ich es manchmal als Formulierungshilfe nutze.<\/p>\n\n\n\n<p>Gemini bietet 3-4 Antwortvarianten an, die in einer Vorschau im Nachrichtenfenster angezeigt werden. Manche sind fernab meiner Vorstellung, andere kommen erstaunlich nah heran. So kann ich die am besten zutreffende Antwort ausw\u00e4hlen, k\u00fcrze sie etwas ein, erg\u00e4nze evtl. noch 1-2 S\u00e4tze und bin fertig.<\/p>\n\n\n\n<p>Vorteile auch hier die Zeitersparnis und die etwas h\u00f6flicher bzw. runder formulierten E-Mails.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Zusammenfassung von Videokonferenzen<\/h2>\n\n\n\n<p>Ihr ahnt vielleicht schon, wo es jetzt hingeht. Google Gemini integriert sich auch hervorragend in Google Meet. Und so haben wir in einer internen Besprechung mit Zustimmung aller Beteiligten die Funktion ausprobiert, ein Besprechungs-Protokoll zu erstellen. Wir waren positiv \u00fcberrascht.<\/p>\n\n\n\n<p>Die Besprechung wurde auf Deutsch durchgef\u00fchrt. Gemini war f\u00fcr diese Sprache offiziell noch als Alpha markiert, was das Ergebnis umso beeindruckender macht. Nach der Besprechung wurde ein Google Doc mit einer deutschsprachigen Zusammenfassung erstellt und im Kalender in den Termin eingef\u00fcgt, so dass alle Teilnehmer es finden und darauf zugreifen k\u00f6nnen.<\/p>\n\n\n\n<p>Ich habe das Protokoll gelesen und musste lediglich einige Schreibfehler bei Namen und englischen Fachbegriffen korrigieren. Alle Teilnehmer waren sich einig, dass die wesentlichen Punkte korrekt zusammengefasst wurden. Bei englischsprachigen Meetings, welche aufgezeichnet werden, enth\u00e4lt die Zusammenfassung sogar die Zeitstempel, zu denen protokollierte Aussagen gemacht wurden.<\/p>\n\n\n\n<p>Es muss nun also kein Protokollant mehr ausgelost werden und alle Teilnehmer:innen k\u00f6nnen sich auf die Besprechung konzentrieren.<\/p>\n\n\n\n<p>Da sich die Zusammenfassung auf das Wesentliche konzentriert, finde ich diese noch besser als ein Transkript, welches auch die belanglosen Beitr\u00e4ge wiedergibt und viel Redundanz enthalten kann.<\/p>\n\n\n\n<p>Als Organisator verlasse ich mich nicht blind auf die KI. Ich lese das Protokoll zeitnah nach der Besprechung und korrigiere es ggf. Es ist bei uns auch nicht un\u00fcblich, dass Teilnehmer:innen auch im Nachgang zu einer Besprechung Erg\u00e4nzungen und Korrekturen zum gemeinsamen Dokument beitragen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Google NotebookLM<\/h2>\n\n\n\n<p><a href=\"https:\/\/notebooklm.google\/\">Google NotebookLM<\/a> bietet eine Umgebung, in der mit KI-Unterst\u00fctzung Inhalte von PDFs, Google Docs &amp; Slides sowie Webseiten verarbeitet werden k\u00f6nnen. Ich m\u00f6chte die Nutzung anhand eines konkreten Beispiels erl\u00e4utern.<\/p>\n\n\n\n<p>Leider habe ich mir die konkreten Prompts und detaillierten Antworten nicht gespeichert, so dass ich meine Erfahrung aus dem Ged\u00e4chtnis aufschreibe.<\/p>\n\n\n\n<p>Ich betreibe einen Server f\u00fcr Laborumgebungen aus der <a href=\"https:\/\/www.hetzner.com\/de\/\">Hetzner<\/a>-Serverb\u00f6rse. Zu diesem gab es eine IPv4-Adresse und ein IPv6-Subnetz. Des Weiteren hat Hetzner eine <a href=\"https:\/\/docs.hetzner.com\/de\/robot\/dedicated-server\/faq\/error-faq#mac-fehler\">Richtlinie zur Nutzung von MAC-Adressen<\/a>. In meinem Fall darf nur die MAC der physischen Netzwerkkarte auf dem Switch im Rechenzentrum erscheinen, nicht jedoch die virtuellen MACs meiner virtuellen Maschinen (VM). M\u00f6chte ich meinen Server als Hypervisor-Host verwenden und die darauf laufenden VMs im Internet erreichbar machen, ben\u00f6tige ich daf\u00fcr ein <a href=\"https:\/\/docs.hetzner.com\/de\/robot\/dedicated-server\/virtualization\/general\">geroutetes Netzwerk<\/a> auf dem Hypervisor.<\/p>\n\n\n\n<p>Prinzipiell wei\u00df ich, was zu tun ist. Es gibt bei Hetzner auch eine <a href=\"https:\/\/community.hetzner.com\/tutorials\/install-and-configure-proxmox_ve\/de#netzwerkkonfiguration-hostsystem-routed\">Anleitung<\/a>, wie man Debian f\u00fcr Proxmox entsprechend konfiguriert, die ich auf RHEL mit Network Manager adaptieren kann. Deshalb schien mir diese Aufgabe geeignet, um zu testen, wie sich ChatGPT und NotebookLM dabei schlagen.<\/p>\n\n\n\n<p>Ich habe beide L\u00f6sungen dabei angewiesen, mit folgenden Quellen zu arbeiten:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/docs.redhat.com\/en\/documentation\/red_hat_enterprise_linux\/9\/html\/configuring_and_managing_networking\/index\">RHEL 9: Configuring and managing networking<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/docs.redhat.com\/en\/documentation\/red_hat_enterprise_linux\/9\/html\/configuring_and_managing_virtualization\/index\">RHEL 9: Configuring and managing virtualization<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/docs.hetzner.com\/robot\/dedicated-server\/faq\/error-faq\/#mac-errors\">Hetzner-FAQ: Reasons you received an abuse email regarding MAC-Errors<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/wiki.libvirt.org\/VirtualNetworking.html\">Libvirt: Virtual Networking<\/a><\/li>\n<\/ul>\n\n\n\n<p>Bei ChatGPT sind die URLs zu den Quellen in den Prompt einzugeben. Bei NotebookLM kann zu Beginn konfiguriert werden, welche Quellen im aktuellen Notebook zu verwenden sind. Diese kann man flexibel selektieren oder abw\u00e4hlen, um zu steuern, mit welchen Quellen die KI arbeiten soll.<\/p>\n\n\n\n<p>Beiden Werkzeugen habe ich \u00fcber den Prompt mitgeteilt, welche IPv6-Adresse ich auf der physischen Netzwerkkarte des Hosts nutzen m\u00f6chte. Anschlie\u00dfend habe ich via Prompt eine zu RHEL 9 passende Schritt-f\u00fcr-Schritt-Anleitung gefordert, mit der die gew\u00fcnschte Netzwerkkonfiguration umgesetzt werden kann. Die angebotenen L\u00f6sungen wurden in beiden F\u00e4llen durch weitere Prompts verfeinert.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">ChatGPT<\/h3>\n\n\n\n<p>Die von ChatGPT generierte L\u00f6sung war komplex und falsch. Aufgrund meiner eigenen Erfahrung hatte ich direkt Zweifel und glaubte nicht, dass der vorgeschlagene wilde Mix aus Bridge und Teaming mit Master- und Slave-Interface auf der Bridge funktionieren w\u00fcrde.<\/p>\n\n\n\n<p>Um meine Annahme zu verifizieren, habe ich die vorgeschlagene L\u00f6sung trotzdem umgesetzt und nach der Hetzner-MAC-Abuse-Meldung wieder zur\u00fcckgebaut.<\/p>\n\n\n\n<p>Ich hatte keine Lust, ChatGPT mit dem Ergebnis zu konfrontieren und weiter mit dem Bot zu chatten, da ich wenig Hoffnung hatte, dass ich noch zu einer funktionierenden L\u00f6sung komme.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">NotebookLM<\/h3>\n\n\n\n<p>Hier hat mir die Erfahrung deutlich besser gefallen. Gemini hat auf meinen Prompt mit einer Zusammenfassung reagiert, welche Informationen \u00fcber die bereitgestellten Quellen zu meinem Prompt bieten. Dabei wurden auch Referenzen mit ausgegeben, um direkt zur Quelle springen zu k\u00f6nnen. Im Anschluss gab es eine Schritt-f\u00fcr-Schritt-Anleitung mit Code-Beispielen. Zu jedem Code-Beispiel erfolgte dazu eine Erkl\u00e4rung, was man dort sieht und was die einzelnen Parameter bedeuten. Dies hat mir gut gefallen.<\/p>\n\n\n\n<p>Die ersten zwei Anleitungen waren noch etwas ungenau, lie\u00dfen sich jedoch durch weitere Prompts soweit verfeinern, dass ich sie fast 1-zu-1 \u00fcbernehmen konnte.<\/p>\n\n\n\n<p>Warum nur fast? Ich habe mir die in der Schritt-f\u00fcr-Schritt-Anleitung referenzierten Quellen angeschaut und mit den dortigen Informationen die Code-Beispiele weiter optimiert, so dass sie besser zu meiner Umgebung passen. Evtl. h\u00e4tte Gemini dies mit besseren Prompts ebenfalls hinbekommen.<\/p>\n\n\n\n<p>Auch diese L\u00f6sung habe ich implementiert und sie l\u00e4uft bis heute. Die KI hat mich auf dem Weg zur L\u00f6sung unterst\u00fctzt und ich musste nicht die vier Quellen komplett und im Detail lesen, um mir die L\u00f6sung komplett selbst zu erarbeiten. Ich bin mit dem Ergebnis sehr zufrieden.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Fazit<\/h2>\n\n\n\n<p>K\u00fcnstliche Intelligenz und deren Nutzung ist nicht unumstritten. Der aktuelle Energiebedarf ist enorm und es ist zu bef\u00fcrchten, dass dies negative Umweltauswirkungen zur Folge hat. KI-Modelle k\u00f6nnen halluzinieren, was zu Fehlern f\u00fchrt, wenn man die Antworten der Modelle nicht verifiziert.<\/p>\n\n\n\n<p>Die Weigerung, KI im Beruf zu benutzen und ihre M\u00f6glichkeiten zu erkunden, f\u00fchrt meiner Einsch\u00e4tzung nach jedoch nur dazu, dass man sich selbst benachteiligt. KI mag Arbeitspl\u00e4tze nicht so schnell ersetzen. Aber Menschen, die KI effizient nutzen k\u00f6nnen, werden Menschen von Stellen verdr\u00e4ngen, die dies nicht k\u00f6nnen. Es erscheint mir daher sinnvoll, den Einsatz von KI im Beruf und Alltag zu erkunden.<\/p>\n\n\n\n<p>Den gr\u00f6\u00dften Vorteil bietet mir die KI-Nutzung aktuell dort, wo sie gut in meine Anwendungen und Werkzeuge wie z.B. Mail, Videokonferenzen und Kalender integriert ist. Der Vorteil besteht \u00fcberwiegend in Zeitersparnis. Ich habe die gew\u00fcnschten Informationen schneller mit weniger eigenem Aufwand in ausreichender Qualit\u00e4t zur Verf\u00fcgung, wobei die Qualit\u00e4t mit geringem Aufwand durch manuelle \u00dcberarbeitung schnell gesteigert werden kann, um ein gutes Ergebnis zu erzielen.<\/p>\n\n\n\n<p>KI-Assistenten lassen sich nutzen, um die Zeit zur L\u00f6sung zu verk\u00fcrzen. Ich h\u00e4tte die Dokumentationen alle selbst lesen und mir die L\u00f6sung erarbeiten k\u00f6nnen. Ich bin mir jedoch sicher, dass ich daf\u00fcr deutlich mehr Zeit h\u00e4tte investieren m\u00fcssen.<\/p>\n\n\n\n<p>Im Endeffekt hilft mir KI dabei, mehr Aufgaben im gleichen Zeitintervall zu erledigen.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Heute berichte ich \u00fcber meine Nutzung gro\u00dfer Sprachmodelle (engl. Large Language Model, kurz LLM) und freue mich, wenn ihr eure Erfahrungen in den Kommentaren oder vielleicht sogar einem eigenen Blog mit mir teilt. Ich konzentriere mich in diesem Text auf Beispiele, in denen mich die Nutzung von LLMs in meiner Arbeit unterst\u00fctzt. Dies soll nicht<span class=\"continue-reading\"> <a href=\"https:\/\/www.my-it-brain.de\/wordpress\/meine-anwendungsfaelle-fuer-die-nutzung-grosser-sprachmodelle-in-2025\/\">[Weiterlesen&#8230;]<\/a><\/span><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_metis_text_type":"standard","_metis_text_length":10503,"_post_count":0,"footnotes":""},"categories":[1],"tags":[836,890,889,835,891,834],"class_list":["post-4164","post","type-post","status-publish","format-standard","hentry","category-allgemein","tag-ai","tag-chatgpt","tag-gemini","tag-ki","tag-kuenstliche-intelligenz","tag-llm"],"public_identification_id":"61804388acc843e99f2ab0c2e1520fba","private_identification_id":"27ee582cec7342fc8c88616317742494","_links":{"self":[{"href":"https:\/\/www.my-it-brain.de\/wordpress\/wp-json\/wp\/v2\/posts\/4164","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.my-it-brain.de\/wordpress\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.my-it-brain.de\/wordpress\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.my-it-brain.de\/wordpress\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.my-it-brain.de\/wordpress\/wp-json\/wp\/v2\/comments?post=4164"}],"version-history":[{"count":5,"href":"https:\/\/www.my-it-brain.de\/wordpress\/wp-json\/wp\/v2\/posts\/4164\/revisions"}],"predecessor-version":[{"id":4169,"href":"https:\/\/www.my-it-brain.de\/wordpress\/wp-json\/wp\/v2\/posts\/4164\/revisions\/4169"}],"wp:attachment":[{"href":"https:\/\/www.my-it-brain.de\/wordpress\/wp-json\/wp\/v2\/media?parent=4164"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.my-it-brain.de\/wordpress\/wp-json\/wp\/v2\/categories?post=4164"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.my-it-brain.de\/wordpress\/wp-json\/wp\/v2\/tags?post=4164"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}