this post was submitted on 14 Jun 2023
10 points (100.0% liked)

de_EDV

22 readers
1 users here now

Ableger von r/de_EDV auf Lemmy.

News, Diskussionen und Hilfestellung zu Hard- und Software

Diese Community dient als Anlaufstelle für alle IT-Interessierten, egal ob Profi oder blutiger Anfänger. Stellt eure Fragen und tauscht euch aus!

Weitere IT Communitys:

!informationstechnik@feddit.de

!informatik@feddit.de

!edv_sicherheit@feddit.de

!computerhilfe@feddit.de

founded 1 year ago
MODERATORS
 

Hi! Nutzt ihr ChatGPT oder andere Natural Language Processing Werkzeuge in der Firma? Wenn ja, wie? Wie handhabt ihr den Punkt Informationssicherheit?

top 20 comments
sorted by: hot top controversial new old
[–] muffinmaster1024@feddit.de 9 points 1 year ago (1 children)

Nein. Bei uns ist es eyplizit verboten und auch weitgehend per Proxy gesperrt. Ich persönlich empfinde das auch als die richtige Entscheidung.

[–] coltzero@feddit.de 2 points 1 year ago (1 children)
[–] Odiousmachine@feddit.de 2 points 1 year ago (1 children)

Abhängig von der Größe des Unternehmens kann es schwierig werden, zu verhindern, dass da jemand den Source Code reinhackt und sich z. B. Unit-Tests dafür wünscht. Das ist ein ziemliches Sicherheitsrisiko.

Ein prinzipiellen Blocken finde ich okay bis man einen guten Weg für den Umgang mit ChatGPT gefunden hat und es eingeschränkt erlaubt.

[–] coltzero@feddit.de 2 points 1 year ago (1 children)

Es ist ein Sicherheitsrisiko wenn der source code geleaked werden würde dadurch? Security through obscurity?

[–] Odiousmachine@feddit.de 1 points 1 year ago (1 children)

Was hat das mit Security through obscurity zu tun? Wer Source code seines Unternehmens unerlaubt an Dritte verbreitet, macht sich wohl des Vertragsbruches strafbar. Es würde mich wundern, wenn es Arbeitsverträge ohne Klausel zu geistigem Eigentum von Firmen gibt.

[–] coltzero@feddit.de 1 points 1 year ago (1 children)

Du hattest geschrieben es wäre ein Sicherheitsrisiko. Das hatte ich als Sicherheitslücken in der Software interpretiert.

[–] Odiousmachine@feddit.de 1 points 1 year ago

Dann haben wir uns da missverstanden. :)

[–] sasquash471@feddit.de 6 points 1 year ago (2 children)

Ich verwende teilweise ChatGPT über meinen privaten Account. Es hilft hie und da beim programmieren. Die Informationssicherheit spielt in meinem Unternehmen leider kaum eine Rolle. Habe schon mehrfach auf solche Themen hingewiesen, aber es bringt halt kein Geld. Allerdings sind wir jetzt auch nicht gerade in einem kritischen Umfeld. Fände es mal spannend wie das die grösseren Player so handhaben mit AI.

[–] waka@feddit.de 3 points 1 year ago (1 children)

Im Großkonzern gab's gleich am Anfang der ChatGPT-Welle einen Arbeitskreis, der dann in einer großen Ausarbeitungsrunde mit Abstimmungen in der Führungsetage ein PDF mit sogenannten "Ethischen Richtlinien" produziert und an alle Mitarbeiter geschickt hat. Die inhaltliche Kurzfassung dieser ist in etwa wie folgt:

Bau keinen Scheiss in der Öffentlichkeit dort.

[–] Labonnie@feddit.de 1 points 1 year ago

Es gibt ja, z.B. von Azure, Lösungen, die mit dem Data Lake deines Unternehmens "trainieren". Dementsprechend die Daten, wenn ich das richtig verstanden habe auch in deinem Tenant bleiben.

[–] agressivelyPassive@feddit.de 3 points 1 year ago

Ich würde mir mal wünschen, sowas als on premise Lösung xu haben.

Beim Programmieren gibt's so viel repetitive Aufgaben, da würde es echt helfen.

[–] driest@feddit.de 4 points 1 year ago (2 children)

Gegenfrage: gibt es bei OpenAI inzwischen Business Verträge die sicherstellen das Informationen aus Konversationen nicht ins Training des Modells einfließen oder sonstwo geteilt werden?

einer der Hauptblocker weshalb das bei uns niemand nutzt (neben den Halluzinationen) ist eben das wir keine Firmengeheimnisse oder sensitiven Kundendaten an andere Firmen leaken wollen.

[–] Cranky_Otter@feddit.de 2 points 1 year ago* (last edited 1 year ago) (1 children)

Bei der Nutzung über Azure gibt es keinen Rückfluss der Daten ins Modell. Zumindest haben auf der Basis unsere Data Privacy und Data Security Leute den Testbetrieb freigegeben.

https://azure.microsoft.com/de-de/products/cognitive-services/openai-service

[–] driest@feddit.de 1 points 1 year ago

interessant, dh. die hosten quasi ein eigenes Modell für dich?

[–] Labonnie@feddit.de 1 points 1 year ago (1 children)

Naja, zumindest behauptet das MS auf seiner Webseite dazu.

[–] driest@feddit.de 2 points 1 year ago (1 children)

hast du da einen Link zu? bisher ist alles was ich dazu lesen konnte eine Absichtserklärung dass das irgendwann kommen soll.

[–] Labonnie@feddit.de 1 points 1 year ago

https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy

Is customer data processed by Azure OpenAI sent to OpenAI? No. Microsoft hosts the OpenAI models within our Azure infrastructure, and all customer data sent to Azure OpenAI remains within the Azure OpenAI service.

Is customer data used to train the OpenAI models? No. We do not use customer data to train, retrain or improve the models in the Azure OpenAI Service.

[–] neavts@feddit.de 2 points 1 year ago

Jein. Wir verwenden ChatGPT nicht offiziell. Es wird toleriert, solange wir keine persönlichen Daten eingeben.

Was wir aber sehr intensiv nutzen, ist deepl.com/write, um Texte zu korrigieren.

[–] Katzenha@feddit.de 1 points 1 year ago

Nein, wir haben vorerst auf GPT4ALL umgestellt. Ist auch völlig ausreichend mit Snoozy. Und wir haben alle unsere eigene Kopie in einer offline VM.

load more comments
view more: next ›