Tim Cook: Apple Intelligence halluziniert auch, aber nicht so viel
Halluzinationen sind eines der größten Probleme der neuen großen Sprachmodelle. Immer, wenn sie nicht mehr weiter wissen und manchmal auch schon vorher, fantasieren sie wild drauf los und zwar so überzeugend, dass man versucht ist, an Fakes zu glauben. Auch Apples Intelligenz ist nicht frei von diesem Problem, räumte Tim Cook bereits vorauseilend ein. Aber: Die Apple-KI halluziniere wesentlich weniger als andere.
So groß der Hype und die gerechtfertigte Begeisterung über die Leistungen großer Sprachmodelle wie GPT4 oder Gemini auch ist, sie alle teilen ein ernstes Problem, das derzeit noch nicht gelöst werden kann: Die Halluzinationen. Davon ist die Rede, wenn ein Sprachmodell eine Anfrage mit vermeintlichen Tatsachen beantwortet, die aber frei erfunden sind. Halluzinationen von Sprachmodellen sind bis zu einem gewissen Grad unberechenbar, sie sind nicht zuverlässig reproduzierbar. Die selbe Anfrage kann zu verschiedenen Zeitpunkten teils deutlich abweichende Ergebnisse hervorbringen, das liegt teils an der stetig weiter laufenden Optimierung durch die Entwickler, teils auch daran, dass die Modelle lernen und zwar in einer blackbox, die auch für die Entwickler der Sprachmodelle nicht immer einsichtig ist.
Tückisch an den Halluzinationen ist, wie überzeugend sie wirken können: Auch erfahrene Anwender mit profundem Allgemeinwissen und gesunder Vorsicht sind nicht sicher vor einer allzu authentisch erscheinenden Aussage.
Tim Cook: Auch Apple Intelligence wird halluzinieren
Dieses Problem konnte bislang noch nicht gelöst werden, alle großen Sprachmodelle neigen zum Halluzinieren und dieser Umstand gilt auch als größter Unsicherheitsfaktor, der die Nutzung von KI auf breiter Front in geschäftlichen, wie auch privaten Alltagsanwendungen noch bremst. Auch Apples KI-Tools sind nicht sicher davor, räumt nun Tim Cook in einem Interview ein.
Ehrlicherweise müsse er sagen, dass auch Apple Intelligence halluzinieren könne, so der Applechef. Man habe sich die größte Mühe gegeben, eine zuverlässige Lösung zu entwickeln, die qualitativ hochwertige Antworten liefert, zu 100% ausschließen lassen sich Halluzinationen aber nicht – zumindest aber sollen sie seltener vorkommen als bei der Konkurrenz.
Apple Intelligence soll seltener aus der Reihe tanzen
Auch Apple Intelligence liefere auf Prompts teils irreführende oder auch schädliche Inhalte, hat Apple in einer umfangreichen Studie herausgearbeitet. Dabei will man die Quote solcher problematischer Antworten auf 6,6% beziffert haben, was nicht überragend klingt, aber deutlich besser wäre als die Leistungen etwa von Marktführer ChatGPT mit dem Modell GPT4-Turbo, der vorletzten GPT-Generation.
Allerdings mag das vermeintlich deutlich bessere Abschneiden der Apple-eigenen Lösung auch damit zu erklären sein, dass Apple Intelligence kein Generalist wie ChatGPT oder Gemini ist. Die Tools sind auf einige recht spezifische Anwendungszwecke spezialisiert, das könnte die Gelegenheiten, zu denen sie sich vom Boden der harten Tatsachen lösen, einschränken.
-----
Willst du keine News mehr verpassen? Dann folge uns auf Twitter oder werde Fan auf Facebook. Du kannst natürlich in Ergänzung unsere iPhone und iPad-App mit Push-Benachrichtigungen hier kostenlos laden.
1 Kommentar zu dem Artikel "Tim Cook: Apple Intelligence halluziniert auch, aber nicht so viel"
-
Jar 13. Juni 2024 um 19:09 Uhr ·An Fakes zu glauben, nicht Fakten 😅iLike 0