Apple Health 2.0

Vielleicht ein Service, der wirklich zu Apple passt.

Apple Health 2.0

Eine neue Woche, ein neuer Scoop von Bloombergs Mark Gurman:

Apple’s health team is working on something that could have a quicker payoff — and help the company finally deliver on Cook’s vision. The initiative is called Project Mulberry, and it involves a completely revamped Health app plus a health coach. The service would be powered by a new AI agent that would replicate — at least to some extent — a real doctor.

[...]

The idea is this: The Health app will continue to collect data from your devices (whether that’s the iPhone, Apple Watch, earbuds or third-party products), and then the AI coach will use that information to offer tailor-made recommendations about ways to improve health.

Auf den ersten Blick klingt das nach einem Service, das eng mit Apples DNA, der Symbiose aus Hardware und Software, verbunden ist. Das könnte vielversprechender sein als Services wie Apple TV+ oder Apple Music, die nicht zu Apples Kernkompetenzen gehören und bislang auch kein Geld verdienen. Zudem ist die Apple Health-App längst überfällig für eine Komplettsanierung. Momentan dient sie hauptsächlich als Datentransfer zwischen Drittanbieter-Apps, da sich niemand in ihrem Datenwirrwarr zurechtfindet. Wenn es Apple gelingen würde, seine eigenen Gerätedaten so gut zu visualisieren wie Gentler Streak oder Oura, könnte das der App neues Leben einhauchen und eventuell sogar Nutzer zum Zahlen bewegen. Die Bereitschaft dafür ist laut RevenueCats State of Subscription Apps Report 2025 immer noch groß. Deren Kunden in der Health & Fitness-Kategorie haben mit einem Median von 0,63$ den höchsten 90-Tage-Umsatz pro Download. Das Potenzial ist also vorhanden.

Dann lese ich jedoch „AI Coach“, und es zieht sich alles zusammen. Nach dem Debakel rund um Apple Intelligence der letzten Wochen ist es schwer vorstellbar, dass Nutzer Apples AI bei Empfehlungen auf Basis sensibler Gesundheitsdaten vertrauen, wenn Siri nicht einmal weiß, welcher Monat gerade ist. Und damit nicht genug, scheint Apple in einen Bereich vorstoßen zu wollen, der ihre AI vor noch größere Herausforderungen stellen dürfte:

Food tracking will be a particularly big part of the revamped app. That’s an area that Apple has mostly avoided, so far, though the current Health app does let you enter data for things like carbohydrates and caffeine. Going big on food tracking would mean challenging services such as MyFitnessPal and, to some extent, weight-management apps like Noom. The doctor-like AI agent will help users with the nutrition features as well.

Als jemand, der letztes Jahr einige Monate lang jede Mahlzeit manuell via App getrackt hat, weiß ich, wie vergleichsweise wenig technologischen Fortschritt das Kalorienzählen seit dem Weight Watchers Punktesystem der 90er Jahre gemacht hat. Ja, die Identifizierung einzelner Lebensmittel anhand eines Fotos per AI wird kontinuierlich besser. Dennoch wird sie den manuellen Prozess nie vollständig ersetzen, da viele Zutaten in der fertigen Mahlzeit nicht erkennbar sind. Entweder, weil sie zu einer Soße verarbeitet wurden oder zu klein sind, um von der Kamera erfasst zu werden. Ganz abgesehen von Restaurants oder Imbissbuden, wo man oft selbst nicht zu 100% weiß, was drin ist. Ich bin gespannt, ob es Apple gelingt, diesen Prozess zu verbessern oder ob sie nur die bestehenden Kalorienzähler-Apps sherlocken. Apropos Fotos, Apple will Kameras wohl auch für andere Zwecke einsetzen:

Apple is also working on features that would tap into the cameras on its devices, such as the one on the back of an iPhone. The idea is to let the AI agent study users’ workouts and give pointers for improving their technique. This could eventually play into other Apple services, including the existing Fitness+ platform.

Damit verdichten sich die Hinweise, dass Visual Recognition eine zentrale Rolle in Apples AI-Strategie spielen wird. Zuvor gab es bereits Berichte, dass sowohl die kommenden AirPod- als auch Apple Watch-Generationen mit Kameras ausgestattet werden sollen, um Siri ein Verständnis für die Umgebung des Nutzers zu geben. Das kommt nicht von ungefähr. Apple hat bereits auf der WWDC 2018, als alles noch Machine Learning genannt wurde, Hall of Famer Steve Nash eine App vorstellen lassen, die Basketball-Wurftechniken analysieren konnte. Diese Insights sind im Profisport natürlich sehr wertvoll, und man wird keine Kosten und Mühen scheuen, um das perfekte Videomaterial bereitzustellen. Aber tut das auch Otto Normalverbraucher im Fitnessstudio, nachdem er einen langen Arbeitstag hinter sich hat? Zweifelhaft. Er müsste sein iPhone so aufstellen, dass die Kamera ihn vollständig erfasst. Das ist nicht überall möglich und schränkt wichtige Funktionen wie Workout-Timer oder Videoanweisungen ein.

Wenn sie es schaffen, dieses Tracking mit Kameras, Bewegungssensoren und AI so zu vereinfachen, dass es beinahe automatisch geschieht, wäre das seit Langem wieder etwas „only Apple can do.“