this post was submitted on 27 Feb 2025
30 points (100.0% liked)

DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz

16 readers
74 users here now

Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Ursprünglich wurde diese Community auf feddit.de gegründet. Nachdem feddit.de mit immer mehr IT-Problemen kämpft und die Admins nicht verfügbar sind, hat ein Teil der Community beschlossen einen Umzug auf eine neue Instanz unter dem Dach der Fediverse Foundation durchzuführen.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org

___

founded 8 months ago
MODERATORS
 

Hochschulen wollen KI ab Mitte des Jahres vollständig für alle Aufgaben zu Hause erlauben. Gleichzeitig sollen mündliche Prüfungen wichtiger werden.

you are viewing a single comment's thread
view the rest of the comments
[–] lichtmetzger@discuss.tchncs.de 8 points 1 day ago* (last edited 1 day ago) (3 children)

Was vor einigen Jahren undenkbar schien, ist heute teils Realität. Zum Beispiel für einen 20-Jährigen, der an der Hochschule Kempten Wirtschaftsingenieurwesen studiert. Bei einer Klausur im Fach Informationsverarbeitung verhalf ihm KI zur Note 1,0. „Ich habe einfach eins zu eins die Sachen gemacht, die mir ChatGPT gesagt hat.“

Der neuen Leitlinie nach wird KI bei allen Leistungen, die zu Hause angefertigt werden, vollständig zugelassen. Da seien sich alle bayerischen Hochschulen einig, sagt Rohrmair. Das betreffe Projektarbeiten, Seminararbeiten, Bachelorarbeiten oder die Vorbereitungen für Vorträge. „Da bringt ein Verbot nichts“, sagt der THA-Präsident. Die Studierenden nützten die KI sowieso.

Boah, ich weiß echt nicht, ob die Begründung "Die machen das ja eh, also erlauben wir es einfach" so eine tolle Sache ist. Ich arbeite als Webdev und sehe an einigen meiner Kollegen leider, wie unfassbar unfähig sie die KI gemacht hat - ohne ChatGPT können sie oft einfachste Aufgaben nicht lösen und die Qualität ihrer Arbeit leidet durch halluzinierende KI's und enthält viel unnötigem Boilerplate-Code.

Bestes Beispiel: Ich schreibe fast nie Kommentare, weil ich meinen Code so verfasse, dass er möglichst von allen verstanden werden kann - nur in absoluten Ausnahmefällen (wenn ein Prozess schwer ersichtlich ist oder der Kunde massiv dumme Ideen hatte), sind Kommentare nötig. ChatGPT ballert Kommentare links und rechts rein - daran erkenne ich dann auch immer den Code, den bestimmte Kollegen verfasst haben.

// We are doing things here to get a result
function doThings() {
    return $result;
}

Das ist absoluter Mist. Wenn wir noch mehr Leute in den Arbeitsmarkt schubsen, die bereits während des Studiums gelernt haben, so zu arbeiten und denken, dass das auch noch völlig okay ist, sehe ich schwarz für die Zukunft.

[–] Obelix@feddit.org 4 points 18 hours ago (3 children)

Hast du jetzt ernsthaft geschrieben, dass du deinen Code nie kommentierst, weil ja eh jeder versteht, was er macht und dass KI blöd ist, weil sie Kommentare hinzufügt? Ich persönlich halte Kommentare im Code für absolut sinnvoll. Die stören nicht, machen nichts kaputt und sind unglaublich hilfreich, wenn man eine fremde Codebasis vorgesetzt bekommt.

[–] lichtmetzger@discuss.tchncs.de 1 points 8 hours ago* (last edited 8 hours ago)

Wie unten bereits kommentiert, sind Kommentare nicht hilfreich, die genau das erklären was eine Zeile darunter steht. ChatGPT kommentiert zu viel und bläht Code nur unnötig mit nutzlosen Kommentaren auf.

Ich schreibe Kommentare, um etwas verständlich zu machen, was auf den ersten Blick vielleicht nicht gleich ersichtlich ist. ChatGPT schreibt einen Kommentar, wenn eine Zahl inkrementiert wird - jeder Programmierer (selbst totale Anfänger) erkennen das auch so und benötigen solche Kommentare nicht.

Und ich empfinde es sehr wohl störend, wenn ein Code durchsiebt ist mit Kommentaren. Man muss das Zeug ja schließlich auch wegscrollen oder mental ignorieren.

[–] zaphod@sopuli.xyz 3 points 13 hours ago (1 children)

Kommentare sollten sinnvoll sein, also komplexen Code verständlicher machen. LLMs machen Kommentare im Stil i++; // increment i

[–] lichtmetzger@discuss.tchncs.de 1 points 8 hours ago

Exakt das meinte ich - das ist übermäßiger Clutter, der den Code nur aufbläht und nicht unbedingt verständlicher macht.

[–] Tiptopit@feddit.org 1 points 16 hours ago

Hängt jetzt aber auch stark von der Komplexität des Programmes, der Programmiersprache und der genauen Umgebung des Programms ab.

[–] Ephera@lemmy.ml 7 points 1 day ago

Naja, ist jetzt nicht so, dass die Leute bisher vom Studium gekommen sind und gewusst hätten, wie man Software entwickelt. Aber ja, wäre natürlich schön gewesen, wenn das besser statt schlechter wird.

Mir macht Sorge, dass die Leute bis zum Berufseinstieg keinen Eindruck haben, ob der Job überhaupt etwas für sie ist. Viele von den Aufgaben im Studium sind gelöste Probleme, wo dir die KI die Musterlösung geben kann. Im Berufsleben hingegen sind's schon regelmäßig knackige Puzzles, die man lösen muss, wo die KI auch dumm aus der Wäsche schaut. Wenn du da erst merkst, dass logisches Denken nicht so dein Fall ist, dann wäre das schon ziemlich bescheiden...

[–] Tiptopit@feddit.org 9 points 1 day ago

Sehe ich auch schwierig. Im Endeffekt ist es ein Selbstbetrug, weil man Arbeiten einreicht, die im Zweifel über der eigenen Kompetenz liegen. Das kann dann halt auch nur so lange gut gehen.

KI als Werkzeug nutzen zu lernen, halte ich dabei nicht für generell falsch, aber man lernt ja in seinem Leben auch erst Kopfrechnen, bevor man irgendwann einen Taschenrechner benutzen darf.