LAB51 logo
Menu
Subscribe

Apple vs. ChatGPT: Die Privatsphäre ist in Gefahr

Data Privacy
By Eleni Murru
Eleni Murru

5 Min

Juni 13, 2023
Teilen

In der Ära generativer KI-Tools wie ChatGPT, die auf der Grundlage von Nutzereingaben realistische und ansprechende Texte erstellen können, ist der Datenschutz ein heiss diskutiertes Thema. Diese Tools bergen jedoch auch das Risiko, dass sensible Informationen an Dritte weitergegeben werden. Deshalb schloss sich Apple wenige Tage, nachdem OpenAI seine offizielle ChatGPT-App im iOS-Store veröffentlicht hatte, einer wachsenden Liste von Unternehmen an, die die Nutzung von ChatGPT und anderen generativen KI-Tools von Drittanbietern durch ihre Mitarbeiter einschränken. Was hat den Tech-Giganten und andere Unternehmen zu dieser Entscheidung veranlasst? Was sind die Auswirkungen? Lassen Sie uns diese interessante Entwicklung in diesem Blog-Artikel gemeinsam erkunden.

Eine Welle von Restriktionen für generative KI-Tools

Für Unternehmen, die mit geschütztem Code oder sensiblen Kundendaten arbeiten, muss der Einsatz von Chatbots wie ChatGPT sorgfältig überlegt werden. Wenn Nutzer mit einem ausgeklügelten Sprachmodell interagieren, werden ihre Eingabedaten an die Server des Modells zurückgeschickt, was laufende Verbesserungen und Erweiterungen ermöglicht.

Wie bereits erwähnt, ist Apple nur das letzte Unternehmen, das beschlossen hat, die Nutzung von ChatGPT auf seine Mitarbeiter zu beschränken. Anfang dieses Jahres war Amazon das erste Unternehmen, das Massnahmen ergriff und seine Mitarbeiter ausdrücklich aufforderte, keine vertraulichen Amazon-Informationen mit ChatGPT zu teilen. Diese Entscheidung wurde getroffen, nachdem das Unternehmen angeblich beobachtet hatte, dass die Chatbot-Antworten interne Amazon-Daten imitierten.

Kurz darauf warnte Walmart seine Mitarbeiter davor, Geschäftsinformationen an den Chatbot weiterzugeben. Und Anfang Mai verbot der Apple-Konkurrent Samsung ChatGPT und die meisten generativen KIs (wie Bing und Google Bard), nachdem ein Mitarbeiter sensible Informationen an ChatGPT gesendet hatte, wie Bloomberg berichtet.

Schutz der Data Vaults: Apples proaktiver Umgang mit dem Datenschutz

Wie andere zukunftsorientierte Unternehmen ergreift auch Apple proaktive Massnahmen, um Bedenken hinsichtlich der potenziellen Risiken im Zusammenhang mit der Offenlegung sensibler Informationen durch diese innovativen Anwendungen auszuräumen. Das Unternehmen ist sich der Bedeutung des Schutzes vertraulicher Daten bewusst und möchte sicherstellen, dass seine Mitarbeiter verantwortungsvoll mit dieser KI-Landschaft umgehen. Die Entscheidung von Apple spiegelt sein Engagement für den Datenschutz und die Kontrolle über sensible Informationen wider.

Die Bedeutung des Datenschutzes am Arbeitsplatz

Während ChatGPT aufgrund seiner Fähigkeit, sinnvolle Unterhaltungen zu führen, Texte zu generieren und verschiedene Aufgaben zu erledigen, grosse Aufmerksamkeit und Beliebtheit erlangt hat, gibt es berechtigte Bedenken von Unternehmen und Regierungen hinsichtlich der Wahrung des Datenschutzes und der Verhinderung von unbefugten Informationslecks. Dies ist besonders relevant, wenn es um den Arbeitsplatz und die Mitarbeiter geht, die Chatbots nutzen könnten, um ihre Arbeitsprozesse zu optimieren.

Bei der Verwendung von generativen KI-Modellen wie ChatGPT werden Benutzereingaben und Frageverläufe normalerweise an die Server des Entwicklers übertragen, um die Plattform kontinuierlich zu verbessern. In den letzten Monaten wurde ChatGPT jedoch aufgrund eines Fehlers vorübergehend abgeschaltet, der es einigen Nutzern versehentlich ermöglichte, die Schlagzeilen der Chatverläufe anderer zu sehen. Diese Situation veranlasste die italienische Datenschutzbehörde (Garante), den Chatbot vorübergehend zu sperren und OpenAI aufzufordern, zusätzliche Massnahmen zum Schutz der Nutzerdaten und für mehr Transparenz zu ergreifen. Danach haben auch andere Länder wie Irland, Deutschland, Frankreich und das Vereinigte Königreich Bedenken darüber geäussert, wie die App mit dem Datenschutz umgeht.

Apples KI-Odyssee: Die Balance zwischen Innovation und Datenschutz

Der Technologiekonzern hat schon immer grossen Wert auf den Schutz der Privatsphäre gelegt. Daher überrascht es nicht, dass das Unternehmen einen vorsichtigen Ansatz verfolgt, wenn es um generative KI-Tools von Dritten geht. Die Bedenken des Unternehmens beschränken sich nicht nur auf den Chatbot von OpenAI, sondern erstrecken sich auch auf den neu eingeführten Programmierassistenten von Microsoft, Github Copilot.

Apple war eines der ersten Unternehmen, das mit seinem 2011 eingeführten Sprachassistenten SIRI in den Bereich der künstlichen Intelligenz eingestiegen ist, aber aufgrund seiner Datenschutzpolitik, die darauf abzielt, die meisten Daten der Nutzer auf den Geräten und nicht auf externen Servern zu speichern, hat das Unternehmen im Vergleich zu anderen einen Rückstand.

Dennoch zeigt Cupertino weiterhin grosses Interesse an der Welt der generativen KI. Wie das Wall Street Journal (WSJ) berichtet, entwickelt Apple aktiv sein eigenes, proprietäres Sprachmodell in grossem Massstab, das von John Giannandrea, einer ehemaligen Google-Führungskraft, die 2018 zu Apple kam, geleitet wird. Apples strategische Übernahmen von KI-fokussierten Startups unterstreichen das Engagement des Unternehmens, seine Expertise in diesem transformativen Bereich zu stärken.

Während einer kürzlich abgehaltenen Telefonkonferenz äusserte sich der CEO von Apple, Tim Cook, zu den Fortschritten im Bereich der KI. Er sagte, Apple habe bereits maschinelles Lernen und KI in einige seiner Produkte integriert. Er räumte ein, wie wichtig es ist, diese Technologie zu nutzen, sagte aber auch: "Es ist sehr wichtig, dass man überlegt und durchdacht an diese Dinge herangeht", fügte er hinzu: "Und es gibt einige Fragen, die geklärt werden müssen … aber das Potenzial ist sicherlich sehr interessant."

Schlussgedanken

Die Welle von Beschränkungen für generative KI-Tools durch viele Unternehmen zeigt deren Macht und Wirkung. Es ist klar, dass diese Tools zwar einige Herausforderungen für den Datenschutz und die Sicherheit mit sich bringen können, aber sie bieten auch viele Möglichkeiten für die Nutzer, wie Kreativität, Lernen und Spass. Unternehmen, die mit sensiblen Daten umgehen, müssen bei der Nutzung dieser Tools proaktiv und verantwortungsbewusst vorgehen und sicherstellen, dass ihre Mitarbeiter die besten Praktiken und Richtlinien befolgen.

Wie können wir das Potenzial der generativen KI, die immer zugänglicher und ausgefeilter wird, für das Gute nutzen? Welche Vorteile und Möglichkeiten bieten diese Werkzeuge für unsere Gesellschaft? Dies sind einige der Fragen, denen wir nachgehen müssen, wenn wir in eine neue Ära der KI-gestützten Kommunikation eintreten.

magnifiercrossmenuchevron-down