30
Studierende in Bayern dürfen ihre Bachelorarbeit bald mit KI verfassen
(www.augsburger-allgemeine.de)
Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.
Ursprünglich wurde diese Community auf feddit.de gegründet. Nachdem feddit.de mit immer mehr IT-Problemen kämpft und die Admins nicht verfügbar sind, hat ein Teil der Community beschlossen einen Umzug auf eine neue Instanz unter dem Dach der Fediverse Foundation durchzuführen.
Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:
Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org
___
Aaaaaaaaargh.... (Sorry, das musste einfach raus)
Ich finde LLMs (ES IST KEINE KI HERRGOTTNOCHMAL) haben durchaus ihre Daseinsberechtigung und können schon ein wirklich nettes Tool sein das ich persönlich auch gerne für die eine oder andere Aufgabe nutze. Das Problem bei den Dingern ist aber: Wenn du selber nicht weißt wie das Ergebnis aussehen sollte, hast du eine recht hohe Chance Kuhmist zu bekommen und weiterzuverarbeiten. Mal als Beispiel: Wenn ich ein LLM nutze um einen von mir geschriebenen Text umformulieren zu lassen, weiß ich ob das Ergebnis sich besser anhört oder auch nicht. Wenn ich ein LLM nutze um mir C Code generieren zu lassen kann ich beurteilen ob das passt oder auch nicht (weil ich 20 Jahre Erfahrung mit der Sprache habe).
Wenn ich mir jetzt aber von einem LLM erklären lassen möchte wie z.B. Finanzmarkttheorie funktioniert könnte ich nicht im Ansatz beurteilen ob das was ich da lese korrekt oder Kuhmist ist, demzufolge halte ich den Einsatz im Studium oder sonstiger Ausbildung für sehr, sehr bedenklich.
Hallo, hast du mich gerufen?
Danke. Schon das alleine würde 20faches Upvoten rechtfertigen.
Eher das Gegenteil, da die Aussage nicht korrekt ist.
Die Aussage ist absolut korrekt. Der Punkt ist: die Menschheit kann nicht mal sauber definieren was natürliche Intelligenz ist. Was soll der Begriff "künstliche Intelligenz" dann sein? Das ist einfach absolut irreführend. Wovon wir hier eigentlich reden ist eher statistische, datenbasierte Modellierung. Künstliche Intelligenz als Begriff dient nur der Übervorteillung ahnungsloser Investoren. Sonst nichts.
Aber ich glaube der Kampf ist wohl mittlerweile verloren und wir müssen uns damit abfinden das der Begriff so in den Sprachgebrauch übergegangen ist...
Edit: die eigentlich interessantere Frage ist doch, ob das Gehirn mehr/etwas anderes macht als datenbasierte Modellierung oder sind wir nicht auch bloß Produkt unserer Erfahrungen und gesammelten Sinneseindrücke usw.?
Nein.
Richtig.
Eben aus der mangelhaften Definition von "Intelligenz" lässt sich konsequenterweise auch nicht klar definieren, was künstliche "Intelligenz" im Allgemeinen ist. Aber dann muss die Diskussion auch anders geführt werden, statt künstliche Intelligenz anzugreifen und fachlich falsches Pseudowissen zu verbreiten.
Jenseits dessen haben wir aber eine praktische Vorstellung davon, was wir unter dem Begriff "künstliche Intelligenz" kategorisieren und da ist sich die Fachwelt weitgehend auch einig. Während die Natur von Intelligenz und dessen Definition eher ein philosophisches Problem ist, ordnen wir diverseste Algorithmen und Konzepte aus einer pragmatischen Perspektive dem Begriff der KI zu. Dass es nun KI heißt und nicht "Luftbanane" oder was auch immer, ist hierfür unerheblich. Wir haben eine Schublade für diesen Zweig der Forschung bzw. Technologie und diese heißt nun erstmal "künstliche Intelligenz". Solange das der Fall ist, ist es falsch zu behaupten, dass LLMs u.ä. keine KI seien.
Im Fall von LLMs mag das zutreffen, jedoch nicht auf KI allgemein.
Ich bin mir absolut sicher, dass das der einzige Grund dafür ist, warum die Menschheit und auch die Fachwelt noch seit vor den 1940ern diesen Begriff verwendet. /s
Sehr viele Methoden aus der KI sind von biologischen Vorbildern inspiriert. Und dass sie tatsächlich gelegentlich sogar direkt vergleichbar sind, hat man beispielsweise bei CNNs bemerkt (neuronale Netzarchitekturen aus dem Bereich der Computer Vision): Gabor Filter. Diese wurden eigenständig erlernt und sind nach gegenwärtigem Kenntnisstand vergleichbar zu einer Komponente des menschlichen Sehens.
Komplett identisch ist KI zu natürlicher Intelligenz natürlich nicht. Viele Komponenten fehlen da. Z.B. gibt es idR keine Neurogenese, auch sind viele KI-Systeme, anders als das menschliche Gehirn, nicht in einem durchgehenden Denkprozess, sondern ballern nur ein Eingabesignal auf Knopfdruck durch. Myelinisierte und unmyelinisierte Axone, welche die Siganlleitungsgeschwindigkeit beeinflussen, gibt es auch nicht. Auch spezialisierte Nervenzellen oder Nervenzellverschaltungen, wie z.B. Inhibitoren, existieren bisweilen meines Wissens nicht in KI-Architekturen. Und so weiter...
Aber KI muss auch nicht komplett identisch zu den biologischen Vorbildern sein und kann dennoch extreme Leistungsfähigkeit zeigen. Letzenendes ist das menschliche Gehirn auch nur ein vernetztes biochemisches Konstrukt, welches uns dazu verhilft Sinneseindrücke zu verarbeiten, darüber zu sinnieren oder auch kreativ damit umzugehen. Manche gehen auch soweit zu sagen, dass das menschliche Gehirn letztlich auch nur eine "Wahrscheinlichkeitsmaschine" sei. So betrachtet sind sich diverse KI-Methoden und biologische Gehirne recht ähnlich.
Doch. LLMs gehören zum großen weiten Feld der KI.
OK, technisch gesehen sind es KI im gleichen Sinn wie die Lisp und Prolog Systeme der 80er KI waren. Ich wehre mich nur gegen den Begriff weil es bei den "Zivilisten" zu viele falsche Erwartungen weckt.
Was für falsche Erwartungen denn?