Keine Einträge vorhanden

Datenschutzrechtliche Bedenken bei der Nutzung von ChatGPT in Unternehmen des Gesundheitshandwerks

Es ist in aller Munde: ChatGPT. Was genau ist das eigentlich und kann ich, als Unternehmer im Gesundheitshandwerk, das Programm bedenkenlos nutzen? Und was passiert eigentlich, wenn eine Fachredaktion diese Frage einfach mal an das System selbst gibt und sagt „Schreib mir einen Artikel“?

11. Mai 2023
Künstliche Intelligenz
Künstliche Intelligenz

Zuerst: ChatGPT ist ein so genannter Chatbot. Mittels künstlicher Intelligenz können textbasierte Nachrichten und ja, auch ganze Artikel, verfasst werden. Es klingt nach Zauberei: Man gibt dem System ein Stichwort und es verfasst selbst einen Text dazu. Wir haben das ausprobiert und haben die Frage, die wir eigentlich bearbeiten wollten, einfach mal weitergegeben. Wie selbstkritisch ist ChatGPT wohl und ist das Ergebnis überzeugend?

Wir stellen also folgende Aufgabe: „Schreib einen Artikel zu den datenschutzrechtlichen Bedenken bei der Nutzung von ChatGPT in Unternehmen des Gesundheitshandwerks“. Wir klicken auf „Enter“ und innerhalb von Sekunden beginnen unsichtbare Hände einen Artikel zu schreiben, wir sehen wie sich vor unseren staunenden Augen der Bildschirm mit Text füllt – das allein ist für jemanden, der kein IT-Profi ist, schon irgendwie cool, auch gruselig zugegeben, aber eben auch cool. Wir erinnern uns an unsere erste Erfahrung mit der Fernwartung unseres PC, wo sich auch auf einmal Geister über unseren Bildschirm bewegen und das Problem fixen. Das Beste oder Schlimmste, wir sind nicht sicher, der Text ist gar nicht mal übel. Wir wollen Ihnen diesen daher auch nicht vorenthalten. Machen Sie sich selbst ein Bild und schreiben Sie uns auch gern, was Sie dazu denken (oder lassen Sie einen Chatbot Ihre Nachricht schreiben):

„Einleitung: Die fortschreitende Digitalisierung hat auch das Gesundheitshandwerk erreicht, und Künstliche Intelligenz (KI) wird vermehrt eingesetzt, um den Kundenservice und die Kommunikation zu verbessern. ChatGPT, ein leistungsstarker Sprach- und Textgenerierungsalgorithmus, der von OpenAI entwickelt wurde, ermöglicht es Unternehmen im Gesundheitshandwerk, menschenähnliche Konversationen mit KI-Modellen zu führen. […] Dieser Artikel wirft einen Blick auf die Herausforderungen und Risiken im Zusammenhang mit der Nutzung von ChatGPT in Unternehmen des Gesundheitshandwerks und beleuchtet mögliche Lösungsansätze.

1. Schutz von Patientendaten: Im Gesundheitshandwerk ist der Schutz von Patientendaten von höchster Priorität. Bei der Nutzung von ChatGPT besteht das Risiko, dass sensible Patienteninformationen preisgegeben werden. Es ist wichtig sicherzustellen, dass die Daten während der Kommunikation mit dem Chatbot verschlüsselt und gesichert sind, um unbefugten Zugriff und Datenlecks zu verhindern.

2. Einwilligung und Transparenz: Bevor Patienten mit einem Chatbot interagieren, sollte eine klare Einwilligung zur Datenerhebung und -verarbeitung eingeholt werden. Es ist wichtig, den Patienten deutlich zu erklären, welche Daten erfasst werden, wie diese verwendet werden und wie lange sie gespeichert werden. […]

3. […]

4. Aufbewahrung und Löschung von Daten: Unternehmen des Gesundheitshandwerks müssen sicherstellen, dass die erfassten Daten nur so lange aufbewahrt werden, wie es für den vorgesehenen Zweck erforderlich ist. Patientendaten sollten nach Ablauf der Aufbewahrungsfrist ordnungsgemäß und dauerhaft gelöscht werden. […]

5. Sicherheit der Kommunikation: Die Kommunikation zwischen Patienten und ChatGPT sollte über sichere Kanäle erfolgen, um die Vertraulichkeit und Integrität der Daten zu gewährleisten. […]“ (Quelle: ChatGPT)

Achtung auch beim Urheberrecht

Jetzt schreiben wieder wir: Auch wir als Redaktion müssen bei der Nutzung von solchen Algorithmen aufpassen. Denn ein oft genannter Kritikpunkt ist, dass nicht klar ist, auf welche Quellen ChatGPT zurückgreift und inwiefern es sich um einen eigenen Text handelt oder wie viel aus anderen Quellen wenig verändert übernommen wurde. Für Sie mag dieser Punkt weniger relevant sein, allerdings nicht für Ihre Azubis. Soll Ihr Azubi einen Text im Rahmen der Berufsschule schreiben, so könnte er verleitet sein, dafür ChatGPT zu nutzen. Das darf er allerdings nicht. Denn dann handelt es sich um einen Dritten, der den Text für Ihren Azubi geschrieben hat und damit handelt es sich um Täuschung. ChatGPT als Suchmaschine zu nutzen ist allerdings legitim.

Und die Eingabe von Kundendaten?

Sie selbst interessiert sicherlich die Frage, die wir ChatGPT gestellt haben und auf die Sie oben schon einige Antworten lesen konnten.

Wir und unsere Rechtsberater, die wir stets bei der Klärung solcher und ähnlicher Fragen zu Rate ziehen, sind uns einig: Gesundheitsdaten sind äußerst sensible Daten. Sie müssen mit Sorgfalt und rechtskonform behandelt werden. Daher ist eine Nutzung eines texterzeugenden Algorithmus oder aber auch beispielsweise schon die Nutzung von Messengerdiensten wie WhatsApp mit Vorsicht zu genießen, wenn dort personenbezogene Daten und insbesondre Gesundheitsdaten Ihrer Kunden kommuniziert werden. ChatGPT speichert die eingegebenen Daten. Daraus werden dann die Antworten erstellt. Außerdem lernt das System immer dazu, um sich selbst zu verbessern, dafür werden alle Daten genutzt, die eingegeben werden. Ein Land, das auf Kritik und Sicherheitslücken reagiert hat, ist Italien. Hier wurde ChatGPT verboten.

Quelle: optikernetz.de; ChatGPT

Ihr Draht zur Redaktion

Wir kommunizieren gern! Sie auch?
Fragen, Anregungen oder einfach mal so – rufen Sie uns an oder schreiben Sie uns.

Newsletter abonnieren

Mit unseren Newslettern erhalten Sie genau die News, die Sie brauchen - kostenlos und direkt in Ihre Mailbox.

Im Rahmen der Nutzung unserer Webseiten verwenden wir, neben technisch notwendigen Cookies, auch Cookies von Dritten zu Werbe- und zu Analyse-Zwecken (z.B. Google Analytics).

Weitere Hinweise zum Umgang mit Ihren personenbezogenen Daten finden Sie in unserer Datenschutzerklärung