Keine Einträge vorhanden
Datenschutzrechtliche Bedenken bei der Nutzung von ChatGPT in Unternehmen des Gesundheitshandwerks
Es ist in aller Munde: ChatGPT. Was genau ist das eigentlich und kann ich, als Unternehmer im Gesundheitshandwerk, das Programm bedenkenlos nutzen? Und was passiert eigentlich, wenn eine Fachredaktion diese Frage einfach mal an das System selbst gibt und sagt „Schreib mir einen Artikel“?
Zuerst: ChatGPT ist ein so genannter Chatbot. Mittels künstlicher Intelligenz können textbasierte Nachrichten und ja, auch ganze Artikel, verfasst werden. Es klingt nach Zauberei: Man gibt dem System ein Stichwort und es verfasst selbst einen Text dazu. Wir haben das ausprobiert und haben die Frage, die wir eigentlich bearbeiten wollten, einfach mal weitergegeben. Wie selbstkritisch ist ChatGPT wohl und ist das Ergebnis überzeugend?
Wir stellen also folgende Aufgabe: „Schreib einen Artikel zu den datenschutzrechtlichen Bedenken bei der Nutzung von ChatGPT in Unternehmen des Gesundheitshandwerks“. Wir klicken auf „Enter“ und innerhalb von Sekunden beginnen unsichtbare Hände einen Artikel zu schreiben, wir sehen wie sich vor unseren staunenden Augen der Bildschirm mit Text füllt – das allein ist für jemanden, der kein IT-Profi ist, schon irgendwie cool, auch gruselig zugegeben, aber eben auch cool. Wir erinnern uns an unsere erste Erfahrung mit der Fernwartung unseres PC, wo sich auch auf einmal Geister über unseren Bildschirm bewegen und das Problem fixen. Das Beste oder Schlimmste, wir sind nicht sicher, der Text ist gar nicht mal übel. Wir wollen Ihnen diesen daher auch nicht vorenthalten. Machen Sie sich selbst ein Bild und schreiben Sie uns auch gern, was Sie dazu denken (oder lassen Sie einen Chatbot Ihre Nachricht schreiben):
„Einleitung: Die fortschreitende Digitalisierung hat auch das Gesundheitshandwerk erreicht, und Künstliche Intelligenz (KI) wird vermehrt eingesetzt, um den Kundenservice und die Kommunikation zu verbessern. ChatGPT, ein leistungsstarker Sprach- und Textgenerierungsalgorithmus, der von OpenAI entwickelt wurde, ermöglicht es Unternehmen im Gesundheitshandwerk, menschenähnliche Konversationen mit KI-Modellen zu führen. […] Dieser Artikel wirft einen Blick auf die Herausforderungen und Risiken im Zusammenhang mit der Nutzung von ChatGPT in Unternehmen des Gesundheitshandwerks und beleuchtet mögliche Lösungsansätze.
1. Schutz von Patientendaten: Im Gesundheitshandwerk ist der Schutz von Patientendaten von höchster Priorität. Bei der Nutzung von ChatGPT besteht das Risiko, dass sensible Patienteninformationen preisgegeben werden. Es ist wichtig sicherzustellen, dass die Daten während der Kommunikation mit dem Chatbot verschlüsselt und gesichert sind, um unbefugten Zugriff und Datenlecks zu verhindern.
2. Einwilligung und Transparenz: Bevor Patienten mit einem Chatbot interagieren, sollte eine klare Einwilligung zur Datenerhebung und -verarbeitung eingeholt werden. Es ist wichtig, den Patienten deutlich zu erklären, welche Daten erfasst werden, wie diese verwendet werden und wie lange sie gespeichert werden. […]
3. […]
4. Aufbewahrung und Löschung von Daten: Unternehmen des Gesundheitshandwerks müssen sicherstellen, dass die erfassten Daten nur so lange aufbewahrt werden, wie es für den vorgesehenen Zweck erforderlich ist. Patientendaten sollten nach Ablauf der Aufbewahrungsfrist ordnungsgemäß und dauerhaft gelöscht werden. […]
5. Sicherheit
der Kommunikation: Die Kommunikation zwischen Patienten und ChatGPT sollte über
sichere Kanäle erfolgen, um die Vertraulichkeit und Integrität der Daten zu
gewährleisten. […]“ (Quelle: ChatGPT)
Achtung auch beim Urheberrecht
Jetzt schreiben wieder wir: Auch wir als Redaktion müssen bei der Nutzung
von solchen Algorithmen aufpassen. Denn ein oft genannter Kritikpunkt ist, dass
nicht klar ist, auf welche Quellen ChatGPT zurückgreift und inwiefern es sich
um einen eigenen Text handelt oder wie viel aus anderen Quellen wenig verändert
übernommen wurde. Für Sie mag dieser Punkt weniger relevant sein, allerdings
nicht für Ihre Azubis. Soll Ihr Azubi
einen Text im Rahmen der Berufsschule schreiben, so könnte er verleitet sein,
dafür ChatGPT zu nutzen. Das darf er allerdings nicht. Denn dann handelt es
sich um einen Dritten, der den Text für Ihren Azubi geschrieben hat und damit
handelt es sich um Täuschung. ChatGPT als Suchmaschine zu nutzen ist allerdings
legitim.
Und die Eingabe von Kundendaten?
Sie selbst interessiert sicherlich die Frage, die wir ChatGPT gestellt haben und auf die Sie oben schon einige Antworten lesen konnten.
Wir und unsere Rechtsberater, die wir stets bei der Klärung solcher und ähnlicher Fragen zu Rate ziehen, sind uns einig: Gesundheitsdaten sind äußerst sensible Daten. Sie müssen mit Sorgfalt und rechtskonform behandelt werden. Daher ist eine Nutzung eines texterzeugenden Algorithmus oder aber auch beispielsweise schon die Nutzung von Messengerdiensten wie WhatsApp mit Vorsicht zu genießen, wenn dort personenbezogene Daten und insbesondre Gesundheitsdaten Ihrer Kunden kommuniziert werden. ChatGPT speichert die eingegebenen Daten. Daraus werden dann die Antworten erstellt. Außerdem lernt das System immer dazu, um sich selbst zu verbessern, dafür werden alle Daten genutzt, die eingegeben werden. Ein Land, das auf Kritik und Sicherheitslücken reagiert hat, ist Italien. Hier wurde ChatGPT verboten.
Ihr Draht zur Redaktion
Wir kommunizieren gern! Sie auch?
Fragen, Anregungen oder einfach mal so – rufen Sie uns an
oder schreiben Sie uns.
Newsletter abonnieren
Mit unseren Newslettern erhalten Sie genau die News, die Sie brauchen - kostenlos und direkt in Ihre Mailbox.