Stačí vyfotit jídlo a za pár sekund máš před sebou kalorie, makronutrienty i „analýzu“.

Zní to jednoduše. A hlavně přesně.

Jenže tady je problém: AI ve skutečnosti kalorie nepočítá. Odhaduje je.

Nevychází z přesného množství surovin, nezná způsob přípravy a nevidí všechno, co v jídle reálně je. Pracuje s tím, co „vidí“ – a ještě víc s tím, co si na základě dat myslí, že tam pravděpodobně je.

A právě tady vzniká rozdíl mezi tím, co vypadá přesně, a tím, co přesné opravdu je.

Cílem tohoto článku není AI kritizovat.
Cílem je ukázat její limity.

Protože pokud je znáš, dokážeš ji používat jako nástroj. Pokud ne, velmi snadno se z ní stane zdroj zkreslených rozhodnutí.

Tady je 10 nejčastějších problémů, které dnes ovlivňují přesnost AI ve výživě.

1. Iluze třetího rozměru: Pixely nevidí skutečný objem

Jedním ze základních technických problémů AI při hodnocení jídla z fotografie je to, že obraz zpracovává pouze jako dvojrozměrný signál. Nevidí skutečnou hloubku ani objem porce tak, jak je vnímá člověk v prostoru.

Bez technologií pro odhad hloubky, například LiDARu, nedokáže spolehlivě určit, zda je jídlo na talíři rozložené naplocho, nebo navrstvené do výšky. Právě proto má tendenci systematicky podhodnocovat množství jídla a tento problém se zhoršuje s rostoucí velikostí porce.

Data to potvrzují poměrně jasně:

  • ChatGPT-4 podhodnotil hmotnost jídla v 76,3 % případů
  • průměrná chyba při odhadu hmotnosti se u modelů jako ChatGPT a Claude pohybovala kolem 36 %, zatímco Gemini dosahoval chyby až 65 %
  • v jednom z testů AI odhadla porci kari na 255 g, přestože reálná hmotnost byla 480 g – jinými slovy model „neviděl“ téměř polovinu jídla

Důležité je, že problém se netýká jen samotné hmotnosti. Pokud AI špatně odhadne objem, chybně vypočítá i kalorie a živiny. Chyba tedy nevzniká až při výpočtu, ale už na úplném začátku. U malých porcí může být shoda s realitou relativně dobrá, ale u středních a velkých porcí přesnost statisticky významně selhává (p < 0,001, což znamená, že je extrémně nepravděpodobné, aby byl tento výsledek náhodný).

V praxi to znamená, že tyto nástroje by se neměly používat jako přesná „digitální váha“. Mohou posloužit jako orientační odhad, ale mají tendenci realitu podhodnocovat. U uživatelů, kteří potřebují přesnější příjem energie a živin, například při klinických dietách nebo ve výkonnostním sportu, je toto omezení zásadní.

2. Slepota vůči tuku: Neviditelné kalorie v omáčkách a olejích

Jedním z největších limitů AI při analýze jídla z fotografie je neschopnost pracovat s neviditelnými složkami. Model vyhodnocuje pouze to, co vidí na povrchu, ale ignoruje ingredience, které jsou nasáklé v jídle nebo skryté v jeho struktuře, jako například oleje, máslo nebo dresinky. Tento problém se označuje jako „slepota vůči neviditelným složkám“.

Z nutričního hlediska jde o zásadní problém. Tuk je nejkoncentrovanější zdroj energie a i malé množství může výrazně ovlivnit celkový kalorický příjem. Pokud ho AI nezachytí, výsledný výpočet je systematicky podhodnocený.

Výsledky studií to jasně ukazují:

  • u modelu ChatGPT-4o dosáhla chybovost v odhadu tuků až 76,5 %
  • i u jednoduchých potravin, jako jsou lískové ořechy, se model v množství tuku mýlil přibližně o 75 %
  • u komplexnějších jídel je situace ještě výraznější – například u tuňákového salátu AI v prvním pokusu identifikovala pouze přibližně 24 % reálného množství tuku

Problém není v tom, že by model dělal náhodné chyby. Tuk jednoduše „nevidí“. Pokud je olej nasáklý v jídle nebo promíchaný v omáčce, model z fotografie nemá žádnou informaci, že tam vůbec je.

Zajímavé je, že přesnost se výrazně zlepšuje, pokud se k fotografii přidá textový popis. Ve chvíli, kdy výzkumníci doplnili informaci například o „2 lžících oleje“, přesnost energetického odhadu (R²) vzrostla z 0,59 na 0,94. To ukazuje, že problém není ve výpočtu samotném, ale v chybějících vstupních datech.

(R² – míra přesnosti modelu – vzrostla z 0,59 na 0,94, což znamená výrazné zlepšení shody s realitou)

V praxi to znamená, že odhad založený pouze na fotografii je pro přesnější sledování stravy nedostatečný. Bez informací o způsobu přípravy a použitých tucích může být reálný příjem vyšší o stovky kalorií denně. Proto je důležité nevnímat tyto nástroje jako kompletní řešení, ale jako orientační doplněk, který vyžaduje manuální doplnění klíčových informací.

3. Nutriční halucinace: Pravděpodobnost slov místo tabulek

Modely umělé inteligence v oblasti výživy trpí fenoménem označovaným jako „nutriční halucinace“. Na rozdíl od specializovaného nutričního softwaru neprovádějí přesné výpočty z chemických databází, ale generují odpovědi na základě statistické pravděpodobnosti slov a vzorců, které se naučily z textů.

To znamená, že AI nepracuje se skutečnými nutričními hodnotami v reálném čase, ale vytváří odpověď, která „zní správně“. Chybí jí reálné pochopení vztahů mezi živinami, a proto může kombinovat informace nesprávně, i když výsledek působí přesvědčivě.

Výsledky výzkumů ukazují, že tyto chyby nejsou ojedinělé, ale opakovatelné.

Při nesprávné identifikaci potravin dochází k extrémním odchylkám:

  • model Claude 3.5 Sonnet si zaměnil míchaná vejce s těstovinami, což vedlo k nadhodnocení sacharidů o 1788 %
  • model Gemini 1.5 Pro identifikoval falafel jako masové kuličky, čímž nadhodnotil bílkoviny o 360 %

Ani pokročilejší modely nejsou výjimkou. ChatGPT-4 vykázal statisticky významnou nepřesnost u 10 ze 16 sledovaných živin a zároveň měl tendenci systematicky podhodnocovat až 11 z nich. U 13 nutrientů, včetně draslíku, vlákniny nebo vitamínu D, byla odchylka od reality vyšší než 10 %.

Problémem není jen samotná chyba, ale i způsob, jakým je prezentována.

AI poskytuje výstupy v plynulé, autoritativní formě, často doplněné tabulkami nebo čísly, které působí odborně. Pro běžného uživatele je prakticky nemožné rozlišit, zda jde o přesný výpočet, nebo o „pravděpodobný odhad“.

V praxi to znamená, že AI by neměla být vnímána jako spolehlivý výpočtový nástroj, ale spíše jako pomocný textový nástroj.

V oblastech, kde záleží na přesnosti, zejména u zdravotních stavů nebo klinických diet, je lidský dohled nezbytný. Nesprávně interpretované nebo „halucinované“ údaje mohou v takových případech představovat reálné riziko pro zdraví.

4. Klinické riziko: Když nepřesnost ohrožuje zdraví

V klinické výživě přestává být nepřesnost umělé inteligence jen statistickou odchylkou a stává se reálným rizikem. Generativní modely nedokážou aplikovat medicínská doporučení s potřebnou přesností ani zohlednit individuální limity pacientů, u kterých rozhodují konkrétní množství živin.

U chronických onemocnění, jako jsou onemocnění ledvin, diabetes nebo kardiovaskulární diagnózy, mohou i relativně malé odchylky vést ke zhoršení zdravotního stavu. V takových případech není problém v tom, že AI není dokonalá, ale v tom, že její chyba má reálný dopad.

Výsledky výzkumů ukazují, že tyto odchylky mohou být výrazné i u kritických parametrů:

  • při generování jídel pro pacienty na dialýze podhodnotil ChatGPT-4:
    • draslík o 49 %
    • energii o 36 %
    • bílkoviny o 28 %
  • aplikace Fastic vykázala až 34násobně vyšší hodnoty sodíku
  • Fitbit reportoval přibližně 20násobně vyšší obsah železa

Tyto chyby nejsou jen teoretické. Pro pacienta, který musí sledovat konkrétní minerály nebo makronutrienty, může být už přibližně 30% odchylka zdravotně riziková.

Zajímavé je také to, jak se interpretují „dobré“ výsledky. V jednom z hodnocení spadalo 97 % odhadů energie od ChatGPT do rozmezí ±40 % oproti referenčním údajům USDA. Na první pohled to působí jako vysoká úspěšnost. V praxi však 40% odchylka znamená, že jídlo odhadnuté na 500 kcal může mít reálně 300 až 700 kcal, což je rozdíl, který zásadně ovlivňuje jakýkoli dietní režim.

Problémem není jen nepřesnost, ale i kontext doporučení. AI může generovat návrhy, které nejsou v souladu s konkrétní diagnózou, například:

  • doporučení slazených nápojů při regulaci příjmu cukru
  • zařazení zpracovaných potravin jako „vhodného“ zdroje živin

V takových případech model nevykazuje schopnost klinického úsudku, ale pouze generuje pravděpodobnou odpověď bez zohlednění rizika.

V praxi to znamená, že AI by neměla být používána pro samostatné řízení stravy u zdravotních diagnóz. Může sloužit jako doplňkový nástroj, ale finální rozhodnutí musí zůstat pod kontrolou odborníka. Bez tohoto dohledu se z pomocníka stává nástroj, který může poskytovat nepřesná a v některých případech i nevhodná doporučení.

5. Kulturní slepota: Algoritmy trénované na „západním“ talíři

Současné nutriční aplikace a AI modely vykazují výrazný problém, který se označuje jako „kulturní slepota“. Většina systémů je trénovaná primárně na západních databázích, zejména americké USDA, kde jsou jídla často reprezentována jako jasně oddělené komponenty na talíři.

Tento přístup však nefunguje u komplexních, míchaných nebo vrstvených jídel, která jsou běžná v asijské, středomořské nebo blízkovýchodní kuchyni. U takových jídel AI často nedokáže identifikovat jednotlivé složky ani jejich poměry, což vede k výrazně zkresleným výpočtům.

Výsledky rozsáhlého testování (Li et al., 2024) ukazují, že nejde o ojedinělý problém, ale o systematickou odchylku:

  • u západní stravy aplikace nadhodnocovaly příjem energie v průměru o 1040 kJ
  • u asijské stravy ho naopak podhodnocovaly o −1520 kJ (cca −360 kcal), (95% CI: −874 až −2165 kJ)

U konkrétních jídel jsou rozdíly ještě výraznější. Například u nápoje Pearl Milk Tea AI podhodnotila energetický obsah až o 76 %. U jídel jako Pho nebo stir-fry systémy často nedokázaly správně identifikovat jednotlivé ingredience, což vedlo k výrazně nepřesným výsledkům.

Odchylky se neobjevují jen u celkové energie, ale i ve složení makronutrientů:

  • u západní stravy měly některé aplikace vyšší podíl sacharidů o 7–8 % energie
  • u asijské stravy byl podíl tuků v průměru o 6 % vyšší než referenční hodnoty
  • u více typů stravy byl podíl sacharidů systematicky nadhodnocen

Tyto rozdíly ukazují, že modely nepracují s univerzálním chápáním jídla, ale s daty, která odrážejí konkrétní kulturní kontext. Pokud se tento kontext neshoduje se stravovacími návyky uživatele, výsledky mohou být výrazně zkreslené.

V praxi to znamená, že uživatel dostává data, která mohou působit přesně, ale ve skutečnosti neodpovídají jeho reálnému jídlu. Tento problém je obzvlášť výrazný u míchaných jídel, kde AI nedokáže rozlišit jednotlivé komponenty ani jejich množství.

Proto se nedoporučuje spoléhat se na AI při analýze komplexních nebo národních jídel bez manuální kontroly. Přesnějším přístupem je vyhledání konkrétních potravin v databázi nebo zadání jídla po jednotlivých ingrediencích. Vizuální rozpoznávání v takových případech selhává především kvůli nedostatku rozmanitých trénovacích dat.

6. Nutriční (ne)vyváženost: Zdravá jídla v nezdravém poměru

Na první pohled AI dělá věci správně. Umí sestavit jídelníček, který obsahuje „zdravé“ potraviny – zeleninu, jogurt, ryby, celozrnné produkty. Problém je, že výživa není jen o tom, co jíte, ale hlavně o tom, v jakém poměru to jíte.

A právě tady se ukazuje zásadní omezení.

Modely umělé inteligence nepracují s reálným pochopením fyziologie ani s biochemickými vztahy mezi živinami. Neoptimalizují jídelníček tak, jak by to dělal odborník. Generují ho na základě pravděpodobnosti – tedy co se spolu často vyskytuje, ne co spolu dává nutriční smysl.

Výsledek je, že jídelníček může vypadat „čistě“, ale uvnitř nefunguje.

Potvrzují to i data. Ve studii (Kaya Kaçar et al., 2025), kde AI generovala 30 redukčních jídelníčků (1400–1800 kcal), dosáhly modely celkově slušného skóre kvality (kolem 71 bodů DQI-I). Měly dostatečnou pestrost a obsahovaly všechny hlavní skupiny potravin. Avšak:

Když se však hodnotila nutriční rovnováha, tedy poměr makronutrientů a mastných kyselin, výsledky prakticky selhaly:

  • průměrné skóre rovnováhy bylo jen 0,27 bodu z 10
  • ChatGPT 4.0 dosáhl 0,0 bodu z 10 možných bodů
  • ostatní modely se pohybovaly kolem 0,4 bodu z 10

Jinými slovy: AI umí vybrat „dobré potraviny“, ale neumí je správně poskládat.

Největší problém je v poměrech, a to zejména mezi:

  • bílkovinami, tuky a sacharidy
  • různými typy tuků (nasycené vs. nenasycené)
  • omega-6 a omega-3 mastnými kyselinami

Tohle nejsou detaily. Jsou to základy fungování organismu a ovlivňují zánětlivé procesy, kardiovaskulární zdraví, hormonální rovnováhu i celkový metabolismus.

Při špatném nastavení poměrů může být jídelníček „zdravý na papíře“, ale dlouhodobě škodlivý v realitě.

Zajímavé je i to, jak tyto jídelníčky vypadají v praxi. Mají tendenci opakovat určité vzorce:

  • velmi nízká variabilita potravin
  • omezené zdroje bílkovin (např. ryby jen losos nebo treska)
  • úplné vynechání některých skupin (např. červené maso)
  • ignorování detailů jako dresinky nebo tuky v jídle

To naznačuje, že modely nepracují s reálnou nutriční logikou, ale s „bezpečnými šablonami“, které vypadají zdravě, ale nejsou optimalizované.

Hlavní problém je, že AI nedokáže pracovat s komplexitou. Vytvořit vyvážený jídelníček znamená zároveň optimalizovat energii, makronutrienty, mikronutrienty i kvalitu tuků a to je kombinace, kterou dnešní modely nezvládají.

Největší riziko je iluze odbornosti. Uživatel vidí hezky sestavený plán plný zdravých jídel a automaticky předpokládá, že je správný. Ve skutečnosti však může jít jen o náhodnou kombinaci potravin bez hlubší nutriční logiky.

Proto platí jednoduché pravidlo: AI může být dobrý pomocník pro inspiraci, ale ne spolehlivý nástroj pro sestavení jídelníčku. Zejména u redukčních diet nebo zdravotních omezení zůstává odborný dohled klíčový.

7. Paradox velkých porcí: Čím víc jíte, tím víc AI klame

Na první pohled se může zdát, že AI dělá chyby náhodně. Ve skutečnosti však jde o opakovatelný vzorec: čím větší porce jídla, tím větší chyba.

Modely mají tendenci „normalizovat“ to, co vidí. Místo přesného odhadu objemu se přibližují průměrné představě daného jídla. U malých porcí to ještě funguje, u větších se chyba výrazně zvyšuje.

Výsledkem je systematické podhodnocování.

Data to potvrzují – při odhadu hmotnosti dosahovaly modely jako ChatGPT a Claude průměrné chyby kolem 36 %, zatímco Gemini až 64–109 %. Klíčové však je, že chyba roste spolu s velikostí porce.

U malých jídel byla přesnost relativně dobrá, u středních a velkých se výrazně zhoršovala.

Konkrétní měření:

  • malé porce: 408 g vs. 430 g (rozdíl minimální)
  • střední porce: 580 g vs. 426 g
  • velké porce: 798 g vs. 530 g

Jinými slovy: čím větší porce, tím více kalorií „zmizí“.

Průměrná odchylka byla přibližně 27,8 %, přičemž AI podhodnotila hmotnost jídla v 76,3 % případů.

Příklad z praxe:
čočkové kari – AI odhad 255 g vs. reálných 480 g. Téměř polovina jídla a tedy i kalorií jednoduše „zmizela“.

Tento trend je konzistentní:

  • přesnost u velkých porcí je o 20 – 30 % nižší než u malých
  • všechny modely vykazují systematické podhodnocování
  • čím více jídla, tím větší odchylka

Tohle není chyba konkrétního modelu, ale vlastnost systému.

Problém je, že uživatel o této chybě neví. Vidí číslo, které působí přesně, a věří mu. Pokud však AI u větších jídel pravidelně „ubírá“ stovky kalorií, reálný příjem je výrazně vyšší, než ukazují data.

To vede k typické frustraci:
„jím méně, všechno si zapisuji, ale nehubnu.“

AI dnes není přesný měřicí nástroj, ale odhad. A tento odhad má jasný směr – podhodnocovat, zejména u větších porcí.

Pokud jde jen o orientaci, může to stačit. Pokud jde o přesnost, například při hubnutí, je to riziko.

Proto platí jednoduché pravidlo: když záleží na přesnosti, váha má přednost před kamerou.

8. Alergická past: Když chyba není jen chyba

U potravinových alergií neexistuje prostor pro „přibližně“. Buď je jídlo bezpečné, nebo není. A právě v tomto bodě se ukazuje jedno z nejnebezpečnějších omezení AI.

Modely umělé inteligence nepracují s medicínským pochopením rizika. Nedokážou vyhodnotit, že určitá chyba může mít reálný zdravotní dopad. Generují odpovědi na základě pravděpodobnosti – tedy co „zní správně“ – ne na základě bezpečnosti.

To znamená, že i když AI dostane jasnou informaci o alergii, nedokáže ji spolehlivě dodržet.

Výsledky testování to potvrzují velmi konkrétně. Při generování 56 jídelníčků pro osobu s potravinovými alergiemi selhal ChatGPT v 7 % případů. V praxi to znamená, že ve 4 jídlech se objevil alergen, který tam neměl být.

Konkrétní příklad: do bezorechové diety model bez zaváhání zařadil mandlové mléko.

To není drobná nepřesnost. To je potenciální zdravotní riziko.

Ještě problematičtější je, že AI si svou chybu neuvědomuje. Neupozorní na ni, neoznačí ji jako nejistou a uživatel dostane odpověď v přesvědčivém, autoritativním tónu.

Podobný problém se ukázal i u energeticky nebezpečných diet. Když měla AI záměrně vytvořit extrémně nízkokalorický plán, nevygenerovala žádné varování. Naopak takový plán podala jako validní řešení, i když by v praxi mohl vést ke zdravotním komplikacím.

Důležité je pochopit, že AI někdy dokáže odpovědět správně. V některých případech vytvořila jídelníčky, které odpovídaly doporučením (např. u diabetu nebo dialýzy). Problém je v konzistenci.

Při opakování stejného požadavku totiž model dokázal vygenerovat zcela odlišné, a někdy i nesprávné výsledky.

To znamená, že nejde o spolehlivý systém, ale o nástroj s vysokou variabilitou.

Hlavní problém je absence odpovědnosti. Pokud AI udělá chybu, neexistuje mechanismus, který by ji zastavil nebo označil jako nebezpečnou. A zároveň není jasné, kdo za takovou chybu nese reálnou odpovědnost.

Pro uživatele to vytváří falešný pocit bezpečí. Odpověď vypadá odborně, je napsaná plynule, často obsahuje i „logické“ vysvětlení. Bez odborných znalostí je však prakticky nemožné odhalit, že jde o chybu.

U alergií je to kritické.

I malá chyba může mít vážné následky – od akutní reakce až po anafylaktický šok. Stejně rizikové jsou i dlouhodobé důsledky, například při špatně nastavených eliminačních dietách, které mohou vést k nutričním deficitům.

Proto zde platí velmi jednoduché pravidlo:
AI může pomoci s orientací, ale nesmí řídit stravu u zdravotních omezení.

Zejména u alergií by měl být vždy přítomen odborný dohled. V opačném případě se z užitečného nástroje stává riziko, které není na první pohled viditelné.

9. Slepota vůči fortifikaci a značkám

AI dokáže rozpoznat, co je na talíři. Nedokáže však pochopit, co v tom jídle skutečně je.

Při analýze funguje výhradně na základě vizuálního vstupu. Všechno, co není viditelné na povrchu, pro ni prakticky neexistuje. To je zásadní problém zejména u zpracovaných potravin.

Umělá inteligence nedokáže identifikovat fortifikaci (přidané vitaminy a minerály) ani rozlišit rozdíly mezi jednotlivými značkami, pokud nemá k dispozici přesný název produktu nebo obal.

Pro člověka je rozdíl mezi dvěma cereáliemi zásadní. Jedny mohou být obohacené o železo a vitaminy, druhé ne. Pro AI jsou to však jen „vločky“.

Model proto pracuje s průměrnými hodnotami z databází, ne s konkrétními daty. Výsledek tak může působit přesně, ale jde jen o odhad „typické verze“ potraviny.

Tento limit přiznávají i samotné modely. ChatGPT-4 například uvedl, že nedokáže určit, zda jsou cornflakes obohacené o vitaminy a minerály, přestože to zásadně ovlivňuje jejich nutriční profil.

Data to potvrzují i číselně. V analýze 114 jídel byla průměrná odchylka přibližně 26,9 %. U většiny živin přesáhla chyba 10 % a v 11 ze 16 případů AI hodnoty systematicky podhodnocovala.

To znamená, že i když energie a základní makra mohou působit relativně přesně, mikronutrienty jsou často mimo realitu.

Největší problém vzniká při sledování mikroživin. Člověk s anémií může mít pocit, že přijímá dostatek železa, i když ho má ve skutečnosti méně. Stejně tak u sodíku, cukru nebo jiných kritických látek může AI systematicky zkreslovat realitu – a uživatel to nemá jak odhalit.

Proto platí jednoduché pravidlo: čím více zpracované jídlo, tím méně se dá spoléhat na AI analýzu z fotografie.

Pokud záleží na přesnosti, je nezbytné pracovat s konkrétními daty:

  • přesný název produktu
  • nutriční štítek
  • nebo databáze propojená s konkrétní značkou

Bez toho AI vždy pracuje jen s průměrem. A průměr v tomto případě často znamená odchylku, která může být z nutričního hlediska zásadní.

10. Stochastická náhodnost: Jiná odpověď na stejnou fotku

Na rozdíl od kalkulačky nebo laboratorní váhy AI nefunguje jako přesný, opakovatelný nástroj. Je to pravděpodobnostní systém. To znamená, že stejný vstup nemusí vést ke stejnému výsledku.

V praxi to vypadá jednoduše: ta samá fotka jídla může vrátit různé hodnoty – bez toho, aby se na ní cokoliv změnilo.

Důvodem je tzv. stochastická náhodnost. Model negeneruje odpověď výpočtem podle pevného vzorce, ale „vybírá“ nejpravděpodobnější výsledek na základě naučených dat. A tento výběr se může mírně lišit při každém použití.

Výsledkem je, že AI není plně konzistentní.

Jednoduchý příklad:
jeden den vám AI odhadne oběd na 500 kcal, druhý den – při té samé fotce – na 600 kcal. Ne proto, že by se změnilo jídlo, ale proto, že se změnil samotný výstup modelu.

Podobný problém se ukázal i při testování diet. Při opakování stejného požadavku na stejný zdravotní profil (např. diabetik) modely generovaly odlišná, někdy i nekonzistentní doporučení. To znamená, že AI nevytváří stabilní referenční bod.

A právě to je zásadní problém při sledování progresu. Pokud se čísla mění ne kvůli reálnému chování, ale kvůli variabilitě nástroje, uživatel ztrácí schopnost vyhodnotit, co funguje.

Jinými slovy:
nevíte, jestli se mění vaše tělo, nebo jen odpověď algoritmu.

Z pohledu vědy je to ještě větší problém. Spolehlivý nástroj musí být reprodukovatelný – stejný vstup má vést ke stejnému výsledku. U AI to dnes neplatí.

I proto odborníci navrhují, aby se při práci s AI nepracovalo s jedním číslem, ale s rozsahem výsledků. Místo jedné hodnoty by se mělo provádět více výpočtů a sledovat průměr nebo interval spolehlivosti.

To však výrazně komplikuje běžné používání.

Hlavní riziko je opět skryté. Výstup působí přesně, konkrétně a definitivně. Uživatel nemá důvod pochybovat. Ve skutečnosti však jde o „nejlepší aktuální odhad“, ne o stabilní výsledek.

Proto platí jednoduché pravidlo:
AI dnes není měřicí nástroj, ale odhadový nástroj.

A dokud se nezačne opírat o deterministické výpočty místo generativních odpovědí, její přesnost bude vždy záviset na momentálním „výběru“ modelu – ne na objektivní realitě.

AI ve výživě má obrovský potenciál.
Ale dnes ještě není přesný nástroj. Je to odhadový nástroj.

Umí zrychlit proces, zjednodušit zapisování a dát základní přehled.
Nedá se na ni ale spolehnout tam, kde rozhodují detaily.

A právě detaily ve výživě rozhodují nejvíc.

Problém není v tom, že AI dělá chyby.
Problém je, že ty chyby nevidíte.

Výstupy vypadají přesně, působí odborně a dávají smysl.
A proto jim lidé věří víc, než by měli.

Pokud to zjednodušíme na jednu myšlenku:
👉 AI dnes umí pomoct. Ale neměla by rozhodovat.

Pokud vám jde jen o orientaci, je to fajn nástroj.
Pokud vám jde o přesnost – ať už při hubnutí, výkonu nebo zdraví – potřebujete víc než odhad.

A právě tam má stále své místo člověk, data a pochopení kontextu.

Zdroje:

https://www.cambridge.org/core/journals/british-journal-of-nutrition/article/validity-and-accuracy-of-artificial-intelligencebased-dietary-intake-assessment-methods-a-systematic-review/6829E54E37F38BB07D09A97D5982C73D
https://pmc.ncbi.nlm.nih.gov/articles/PMC11243505/
https://pmc.ncbi.nlm.nih.gov/articles/PMC11206595/
https://pubmed.ncbi.nlm.nih.gov/38194819/
https://pubmed.ncbi.nlm.nih.gov/38060823/
https://www.sciencedirect.com/science/article/pii/S088915752501659X
https://pubmed.ncbi.nlm.nih.gov/39125452/
https://pubmed.ncbi.nlm.nih.gov/41081011/
https://pmc.ncbi.nlm.nih.gov/articles/PMC12367769/
https://pmc.ncbi.nlm.nih.gov/articles/PMC11199627/
https://www.mdpi.com/2072-6643/16/15/2573
https://www.mdpi.com/2072-6643/17/4/607
https://www.mdpi.com/2072-6643/17/2/206
https://www.researchgate.net/publication/395491050_Performance_evaluation_of_Three_Large_Language_Models_for_Nutritional_Content_Estimation_from_Food_Images
https://www.researchgate.net/publication/399109330_Image-based_nutritional_assessment_evaluating_the_performance_of_ChatGPT-4o_on_simple_and_complex_meals
https://scholarworks.merrimack.edu/cgi/viewcontent.cgi?article=1195&context=health_facpubs

Kategorie:

Strava & Výživa,

Poslední aktualizace 10 dubna, 2026