Stačí odfotiť jedlo a za pár sekúnd máš pred sebou kalórie, makronutrienty aj „analýzu“.

Znie to jednoducho. A hlavne presne.

Lenže tu je problém: AI v skutočnosti kalórie nepočíta. Odhaduje ich.

Nevychádza z presného množstva surovín, nepozná spôsob prípravy a nevidí všetko, čo v jedle reálne je. Pracuje s tým, čo „vidí“ – a ešte viac s tým, čo si na základe dát myslí, že tam pravdepodobne je.

A práve tu vzniká rozdiel medzi tým, čo vyzerá presne, a tým, čo presné naozaj je.

Cieľom tohto článku nie je AI kritizovať.
Cieľom je ukázať jej limity.

Pretože ak ich poznáš, vieš ju používať ako nástroj.
Ak nie, veľmi ľahko sa z nej stane zdroj skreslených rozhodnutí.

Tu je 10 najčastejších problémov, ktoré dnes ovplyvňujú presnosť AI vo výžive.

1. Ilúzia tretieho rozmeru: Pixely nevidia skutočný objem

Jedným zo základných technických problémov AI pri hodnotení jedla z fotografie je to, že obraz spracováva len ako dvojrozmerný signál. Nevidí skutočnú hĺbku ani objem porcie tak, ako ich vníma človek v priestore.

Bez technológií na odhad hĺbky, napríklad LiDARu, nedokáže spoľahlivo určiť, či je jedlo na tanieri rozložené na plocho alebo navrstvené do výšky. Práve preto má tendenciu systematicky podhodnocovať množstvo jedla, a tento problém sa zhoršuje s rastúcou veľkosťou porcie.

Dáta to potvrdzujú pomerne jasne:

  • ChatGPT-4 podhodnotil hmotnosť jedla v 76,3 % prípadov.
  • Priemerná chyba pri odhade váhy sa u modelov ako ChatGPT a Claude pohybovala okolo 36 %, zatiaľ čo Gemini dosahoval chybu až 65 %.
  • V jednom z testov AI odhadla porciu kari na 255 g, hoci reálna hmotnosť bola 480 g. Inými slovami, model „nevidel“ takmer polovicu jedla.

Dôležité je, že problém sa netýka len samotnej hmotnosti. Ak AI zle odhadne objem, chybne vypočíta aj kalórie a živiny. Chyba teda nevzniká až pri výpočte, ale už na úplnom začiatku. Pri malých porciách môže byť zhoda s realitou relatívne dobrá, ale pri stredných a veľkých porciách presnosť štatisticky významne zlyháva (p < 0,001, znamená, že je extrémne nepravdepodobné, aby bol tento výsledok náhodný).

V praxi to znamená, že tieto nástroje by sa nemali používať ako presná „digitálna váha“. Môžu poslúžiť ako orientačný odhad, ale majú sklon realitu podhodnocovať. Pri používateľoch, ktorí potrebujú presnejší príjem energie a živín, napríklad pri klinických diétach alebo vo výkonnostnom športe, je toto obmedzenie zásadné.

2. Slepota voči tuku: Neviditeľné kalórie v omáčkach a olejoch

Jedným z najväčších limitov AI pri analýze jedla z fotografie je neschopnosť pracovať s neviditeľnými zložkami. Model vyhodnocuje iba to, čo vidí na povrchu, no ignoruje ingrediencie, ktoré sú vsiaknuté v jedle alebo skryté v jeho štruktúre, ako napríklad oleje, maslo alebo dresingy. Tento problém sa označuje ako „slepota voči neviditeľným zložkám“.

Z nutričného hľadiska ide o zásadný problém. Tuk je najkoncentrovanejší zdroj energie a aj malé množstvo môže výrazne ovplyvniť celkový kalorický príjem. Ak ho AI nezachytí, výsledný výpočet je systematicky podhodnotený.

Výsledky štúdií to jasne ukazujú.

  • Pri modeli ChatGPT-4o dosiahla chybovosť v odhade tukov až 76,5 %.
  • Aj pri jednoduchých potravinách, ako sú lieskové orechy, sa model v množstve tuku zmýlil približne o 75 %.
  • Pri komplexnejších jedlách je situácia ešte výraznejšia – napríklad pri tuniakovom šaláte AI v prvom pokuse identifikovala len približne 24 % reálneho množstva tuku.

Problém nie je v tom, že by model robil náhodné chyby. Tuk jednoducho „nevidí“. Ak je olej nasiaknutý v jedle alebo zmiešaný v omáčke, model nemá z fotografie žiadnu informáciu, že tam vôbec je.

Zaujímavé je, že presnosť sa výrazne zlepšuje, ak sa k fotografii pridá textový opis. V momente, keď výskumníci doplnili informáciu napríklad o „2 lyžiciach oleja“, presnosť energetického odhadu (R²) vzrástla z 0,59 na 0,94. To ukazuje, že problém nie je vo výpočte samotnom, ale v chýbajúcich vstupných dátach.

*(R² – miera presnosti modelu – vzrástla z 0,59 na 0,94, čo znamená výrazné zlepšenie zhody s realitou)

V praxi to znamená, že odhad založený len na fotografii je pre presnejšie sledovanie stravy nedostatočný. Bez informácií o spôsobe prípravy a použitých tukoch môže byť reálny príjem vyšší o stovky kalórií denne. Preto je dôležité nevnímať tieto nástroje ako kompletné riešenie, ale ako orientačný doplnok, ktorý si vyžaduje manuálne doplnenie kľúčových informácií.

3. Nutričné halucinácie: Pravdepodobnosť slov namiesto tabuliek

Modely umelej inteligencie v oblasti výživy trpia fenoménom označovaným ako „nutričné halucinácie“. Na rozdiel od špecializovaného nutričného softvéru nevykonávajú presné výpočty z chemických databáz, ale generujú odpovede na základe štatistickej pravdepodobnosti slov a vzorcov, ktoré sa naučili z textov.

To znamená, že AI nepracuje so skutočnými nutričnými hodnotami v reálnom čase, ale vytvára odpoveď, ktorá „znie správne“. Chýba jej reálne pochopenie vzťahov medzi živinami, a preto môže kombinovať informácie nesprávne, aj keď výsledok pôsobí presvedčivo.

Výsledky výskumov ukazujú, že tieto chyby nie sú ojedinelé, ale opakovateľné.

Pri nesprávnej identifikácii potravín dochádza k extrémnym odchýlkam:

  • model Claude 3.5 Sonnet si pomýlil praženicu s cestovinami, čo viedlo k nadhodnoteniu sacharidov o 1788 %
  • model Gemini 1.5 Pro identifikoval falafel ako mäsové guľky, čím nadhodnotil bielkoviny o 360 %

Ani pokročilejšie modely nie sú výnimkou. ChatGPT-4 vykázal štatisticky významnú nepresnosť pri 10 zo 16 sledovaných živín a zároveň mal tendenciu systematicky podhodnocovať až 11 z nich. Pri 13 nutrientoch, vrátane draslíka, vlákniny alebo vitamínu D, bola odchýlka od reality vyššia ako 10 %.

Problémom nie je len samotná chyba, ale spôsob, akým je prezentovaná.

AI poskytuje výstupy v plynulej, autoritatívnej forme, často doplnené tabuľkami alebo číslami, ktoré pôsobia odborne. Pre bežného používateľa je prakticky nemožné rozlíšiť, či ide o presný výpočet alebo o „pravdepodobný odhad“.

V praxi to znamená, že AI by nemala byť vnímaná ako spoľahlivý výpočtový nástroj, ale skôr ako pomocný textový nástroj.

V oblastiach, kde záleží na presnosti, najmä pri zdravotných stavoch alebo klinických diétach, je ľudský dohľad nevyhnutný. Nesprávne interpretované alebo „halucinované“ údaje môžu v takýchto prípadoch predstavovať reálne riziko pre zdravie.

4. Klinický hazard: Keď nepresnosť ohrozuje zdravie

V klinickej výžive prestáva byť nepresnosť umelej inteligencie len štatistickou odchýlkou a stáva sa reálnym rizikom. Generatívne modely nedokážu aplikovať medicínske odporúčania s potrebnou presnosťou ani zohľadniť individuálne limity pacientov, pri ktorých rozhodujú konkrétne množstvá živín.

Pri chronických ochoreniach, ako sú ochorenia obličiek, diabetes alebo kardiovaskulárne diagnózy, môžu aj relatívne malé odchýlky viesť k zhoršeniu zdravotného stavu. V takýchto prípadoch nie je problém v tom, že AI nie je dokonalá, ale v tom, že jej chyba má reálny dopad.

Výsledky výskumov ukazujú, že tieto odchýlky môžu byť výrazné aj pri kritických parametroch.

  • Pri generovaní jedál pre pacientov na dialýze podhodnotil ChatGPT-4:
    • draslík o 49 %
    • energiu o 36 %
    • bielkoviny o 28 %
  • aplikácia Fastic vykázala až 34-násobne vyššie hodnoty sodíka
  • Fitbit reportoval približne 20-násobne vyšší obsah železa

Tieto chyby nie sú len teoretické. Pre pacienta, ktorý musí sledovať konkrétne minerály alebo makronutrienty, môže byť už približne 30 % odchýlka zdravotne riziková.

Zaujímavé je aj to, ako sa interpretujú „dobré“ výsledky. V jednom z hodnotení spadalo 97 % odhadov energie od ChatGPT do rozsahu ±40 % oproti referenčným údajom USDA. Na prvý pohľad to pôsobí ako vysoká úspešnosť. V praxi však 40 % odchýlka znamená, že jedlo odhadnuté na 500 kcal môže mať reálne 300 až 700 kcal, čo je rozdiel, ktorý zásadne ovplyvňuje akýkoľvek diétny režim.

Problémom nie je len nepresnosť, ale aj kontext odporúčaní. AI môže generovať návrhy, ktoré nie sú v súlade s konkrétnou diagnózou, napríklad:

  • odporúčanie sladených nápojov pri regulácii príjmu cukru
  • zaradenie spracovaných potravín ako „vhodného“ zdroja živín

V takýchto prípadoch model nevykazuje schopnosť klinického úsudku, ale len generuje pravdepodobnú odpoveď bez zohľadnenia rizika.

V praxi to znamená, že AI by nemala byť používaná na samostatné riadenie stravy pri zdravotných diagnózach. Môže slúžiť ako doplnkový nástroj, ale finálne rozhodnutia musia zostať pod kontrolou odborníka. Bez tohto dohľadu sa z pomocníka stáva nástroj, ktorý môže poskytovať nepresné a v niektorých prípadoch aj nevhodné odporúčania.

5. Kultúrna slepota: Algoritmy trénované na „západnom“ tanieri

Súčasné nutričné aplikácie a AI modely vykazujú výrazný problém, ktorý sa označuje ako „kultúrna slepota“. Väčšina systémov je trénovaná primárne na západných databázach, najmä americkej USDA, kde sú jedlá často reprezentované ako jasne oddelené komponenty na tanieri.

Tento prístup však nefunguje pri komplexných, miešaných alebo vrstvených jedlách, ktoré sú bežné v ázijskej, stredomorskej alebo blízkovýchodnej kuchyni. Pri takýchto jedlách AI často nedokáže identifikovať jednotlivé zložky ani ich pomery, čo vedie k výrazne skresleným výpočtom.

Výsledky rozsiahleho testovania (Li et al., 2024) ukazujú, že nejde o ojedinelý problém, ale o systematickú odchýlku:

  • pri západnej strave aplikácie nadhodnocovali príjem energie v priemere o 1040 kJ
  • pri ázijskej strave ho naopak podhodnocovali o −1520 kJ (cca −360 kcal), (95 % CI: −874 až −2165 kJ)

Pri konkrétnych jedlách sú rozdiely ešte výraznejšie. Napríklad pri nápoji Pearl Milk Tea AI podhodnotila energetický obsah až o 76 %. Pri jedlách ako Pho alebo stir-fry systémy často nedokázali správne identifikovať jednotlivé ingrediencie, čo viedlo k výrazne nepresným výsledkom.

Odchýlky sa neobjavujú len pri celkovej energii, ale aj v zložení makronutrientov:

  • pri západnej strave mali niektoré aplikácie vyšší podiel sacharidov o 7 – 8 % energie
  • pri ázijskej strave bol podiel tukov v priemere o 6 % vyšší, než referenčné hodnoty
  • pri viacerých typoch stravy bol podiel sacharidov systematicky nadhodnotený

Tieto rozdiely poukazujú na to, že modely nepracujú s univerzálnym chápaním jedla, ale s dátami, ktoré odrážajú konkrétny kultúrny kontext. Ak sa tento kontext nezhoduje so stravovacími návykmi používateľa, výsledky môžu byť výrazne skreslené.

V praxi to znamená, že používateľ dostáva dáta, ktoré môžu pôsobiť presne, ale v skutočnosti nezodpovedajú jeho reálnemu jedlu. Tento problém je obzvlášť výrazný pri miešaných jedlách, kde AI nedokáže rozlíšiť jednotlivé komponenty ani ich množstvo.

Preto sa neodporúča spoliehať sa na AI pri analýze komplexných alebo národných jedál bez manuálnej kontroly. Presnejším prístupom je vyhľadanie konkrétnych potravín v databáze alebo zadanie jedla po jednotlivých ingredienciách. Vizuálne rozpoznávanie v takýchto prípadoch zlyháva najmä kvôli nedostatku rozmanitých tréningových dát.

6. Nutričná (ne)vyváženosť: Zdravé jedlá v nezdravom pomere

Na prvý pohľad AI robí veci správne. Vie vyskladať jedálniček, ktorý obsahuje „zdravé“ potraviny – zeleninu, jogurt, ryby, celozrnné produkty. Problém je, že výživa nie je len o tom, čo jete, ale najmä o tom, v akom pomere to jete.

A práve tu sa ukazuje zásadné obmedzenie.

Modely umelej inteligencie nepracujú s reálnym pochopením fyziológie ani s biochemickými vzťahmi medzi živinami. Neoptimalizujú jedálniček tak, ako by to robil odborník. Generujú ho na základe pravdepodobnosti – teda čo sa spolu často vyskytuje, nie čo spolu dáva nutričný zmysel.

Výsledok je, že jedálniček môže vyzerať „čisto“, ale vnútorne nefunguje.

Potvrdzujú to aj dáta. V štúdii (Kaya Kaçar et al., 2025), kde AI generovala 30 redukčných jedálničkov (1400–1800 kcal), dosiahli modely celkovo slušné skóre kvality (okolo 71 bodov DQI-I). Mali dostatočnú pestrosť a obsahovali všetky hlavné skupiny potravín. Avšak!

Keď sa však hodnotila nutričná rovnováha, teda pomer makronutrientov a mastných kyselín – výsledky prakticky zlyhali.

  • priemerné skóre rovnováhy bolo len 0,27 bodu z 10
  • ChatGPT 4.0 dosiahol 0,0 bodu z 10 možných bodov
  • ostatné modely sa pohybovali okolo 0,4 bodu z 10

Inými slovami: AI vie vybrať „dobré potraviny“, ale nevie ich správne poskladať.

Najväčší problém je v pomeroch a to najmä medzi:

  • bielkovinami, tukmi a sacharidmi
  • rôznymi typmi tukov (nasýtené vs. nenasýtené)
  • omega-6 a omega-3 mastnými kyselinami

Tieto veci nie sú detail. Sú základom fungovania organizmu a ovplyvňujú zápalové procesy, kardiovaskulárne zdravie, hormonálnu rovnováhu aj celkový metabolizmus.

Pri zlom nastavení pomerov môže byť jedálniček „zdravý na papieri“, ale dlhodobo škodlivý v realite.

Zaujímavé je aj to, ako tieto jedálničky vyzerajú v praxi. Majú tendenciu opakovať určité vzory:

  • veľmi nízka variabilita potravín
  • obmedzené zdroje bielkovín (napr. ryby len losos alebo treska)
  • úplné vynechanie niektorých skupín (napr. červené mäso)
  • ignorovanie detailov ako dresingy alebo tuky v jedle

To naznačuje, že modely nepracujú s reálnou nutričnou logikou, ale s „bezpečnými šablónami“, ktoré vyzerajú zdravo, no nie sú optimalizované.

Hlavný problém je, že AI nedokáže pracovať s komplexitou. Vytvoriť vyvážený jedálniček znamená naraz optimalizovať energiu, makronutrienty, mikronutrienty aj kvalitu tukov  a to je kombinácia, ktorú dnešné modely nezvládajú.

Najväčšie riziko je ilúzia odbornosti. Používateľ vidí pekne zostavený plán, plný zdravých jedál, a automaticky predpokladá, že je správny. V skutočnosti však môže ísť len o náhodnú kombináciu potravín bez hlbšej nutričnej logiky.

Preto platí jednoduché pravidlo: AI môže byť dobrý pomocník na inšpiráciu, ale nie spoľahlivý nástroj na zostavenie jedálnička. Najmä pri redukčných diétach alebo zdravotných obmedzeniach zostáva odborný dohľad kľúčový.

7. Paradox veľkých porcií: Čím viac jete, tým viac AI klame

Na prvý pohľad sa môže zdať, že AI robí chyby náhodne. V realite však ide o opakovateľný vzorec: čím väčšia porcia jedla, tým väčšia chyba.

Modely majú tendenciu „normalizovať“ to, čo vidia. Namiesto presného odhadu objemu sa približujú k priemernej predstave daného jedla. Pri malých porciách to ešte funguje, pri väčších sa chyba výrazne zvyšuje.

Výsledkom je systematické podhodnocovanie.

Dáta to potvrdzujú, že pri odhade hmotnosti dosahovali ChatGPT a Claude priemernú chybu okolo 36 %, Gemini až 64 – 109 %. Kľúčové však je, že chyba rastie spolu s veľkosťou porcie.

Pri malých jedlách bola presnosť relatívne dobrá, pri stredných a veľkých sa výrazne zhoršovala.

Konkrétne merania:

  • malé porcie: 408 g vs. 430 g (rozdiel minimálny)
  • stredné porcie: 580 g vs. 426 g
  • veľké porcie: 798 g vs. 530 g

Inými slovami: čím väčšia porcia, tým viac kalórií „zmizne“.

Priemerná odchýlka bola približne 27,8 %, pričom AI podhodnotila hmotnosť jedla v 76,3 % prípadov.

Príklad z praxe:
šošovicové kari – AI odhad 255 g vs. reálnych 480 g. Takmer polovica jedla a kalórií jednoducho „zmizla“.

Tento trend je konzistentný:

  • presnosť pri veľkých porciách je o 20–30 % nižšia než pri malých
  • všetky modely vykazujú systematické podhodnocovanie
  • čím viac jedla, tým väčšia odchýlka

Toto nie je chyba konkrétneho modelu, ale vlastnosť systému.

Problém je, že používateľ o tejto chybe nevie. Vidí číslo, ktoré pôsobí presne, a verí mu. Ak však AI pri väčších jedlách pravidelne „uberá“ stovky kalórií, reálny príjem je výrazne vyšší, než ukazujú dáta.

To vedie k typickej frustrácii:
„jem menej, všetko si zapisujem, ale nechudnem.“

AI dnes nie je presný merací nástroj, ale odhad. A tento odhad má jasný smer – podhodnocovať, najmä pri väčších porciách.

Ak ide len o orientáciu, môže to stačiť.

Ak ide o presnosť, napríklad pri chudnutí, je to riziko.

Preto platí jednoduché pravidlo: keď záleží na presnosti, váha má prednosť pred kamerou.

8. Alergická pasca: Keď chyba nie je len chyba

Pri potravinových alergiách neexistuje priestor na „približne“. Buď je jedlo bezpečné, alebo nie je. A práve v tomto bode sa ukazuje jedno z najnebezpečnejších obmedzení AI.

Modely umelej inteligencie nepracujú s medicínskym pochopením rizika. Nevedia vyhodnotiť, že určitá chyba môže mať reálny zdravotný dopad. Generujú odpovede na základe pravdepodobnosti – teda čo „znie správne“ – nie na základe bezpečnosti.

To znamená, že aj keď AI dostane jasnú informáciu o alergii, nedokáže ju garantovane dodržať.

Výsledky testovania to potvrdzujú veľmi konkrétne. Pri generovaní 56 jedálničkov pre osobu s potravinovými alergiami zlyhal ChatGPT v 7 % prípadov. V praxi to znamená, že v 4 jedlách sa objavil alergén, ktorý tam nemal byť.

Konkrétny príklad: do bezorechovej diéty model bez zaváhania zaradil mandľové mlieko.

To nie je drobná nepresnosť. To je potenciálne zdravotné riziko.

Ešte problematickejšie je, že AI si svoju chybu neuvedomuje. Neupozorní na ňu, neoznačí ju ako neistú a používateľ dostane odpoveď v presvedčivom, autoritatívnom tóne.

Podobný problém sa ukázal aj pri energeticky nebezpečných diétach. Keď mala AI zámerne vytvoriť extrémne nízkokalorický plán, nevygenerovala žiadne varovanie. Naopak, takýto plán podala ako validné riešenie, hoci by v praxi mohol viesť k zdravotným komplikáciám.

Dôležité je pochopiť, že AI vie niekedy odpovedať správne. V niektorých prípadoch dokázala vytvoriť jedálničky, ktoré zodpovedali odporúčaniam (napr. pri diabete alebo dialýze). Problém je v konzistentnosti.

Pri opakovaní tej istej požiadavky totiž model dokázal vygenerovať úplne odlišné, a niekedy nesprávne, výsledky.

To znamená, že nejde o spoľahlivý systém, ale o nástroj s vysokou variabilitou.

Hlavný problém je absencia zodpovednosti. Ak AI spraví chybu, neexistuje mechanizmus, ktorý by ju zastavil alebo označil ako nebezpečnú. A zároveň nie je jasné, kto za takúto chybu nesie reálnu zodpovednosť.

Pre používateľa to vytvára falošný pocit bezpečia. Odpoveď vyzerá odborne, je napísaná plynulo, často obsahuje aj „logické“ vysvetlenie. Bez odborných znalostí je však prakticky nemožné odhaliť, že ide o chybu.

Pri alergiách je toto kritické.

Aj malá chyba môže mať vážne následky – od akútnej reakcie až po anafylaktický šok. Rovnako rizikové sú aj dlhodobé dôsledky, napríklad pri nesprávne nastavených eliminačných diétach, ktoré môžu viesť k nutričným deficitom.

Preto tu platí veľmi jednoduché pravidlo:
AI môže pomôcť s orientáciou, ale nesmie riadiť stravu pri zdravotných obmedzeniach.

Najmä pri alergiách by mal byť vždy prítomný odborný dohľad. V opačnom prípade sa z užitočného nástroja stáva riziko, ktoré nie je na prvý pohľad viditeľné.

9. Slepota voči fortifikácii a značkám

AI vie rozpoznať, čo je na tanieri. Nevie však pochopiť, čo v tom jedle reálne je.

Pri analýze funguje výhradne na základe vizuálneho vstupu. Všetko, čo nie je viditeľné na povrchu, pre ňu prakticky neexistuje. To je zásadný problém najmä pri spracovaných potravinách.

Umelá inteligencia nedokáže identifikovať fortifikáciu (pridané vitamíny a minerály) ani rozlíšiť rozdiely medzi značkami, pokiaľ nemá k dispozícii presný názov produktu alebo obal.

Pre človeka je rozdiel medzi dvoma cereáliami zásadný. Jedny môžu byť obohatené o železo a vitamíny, druhé nie. Pre AI sú to však len „vločky“.

Model preto pracuje s priemernými hodnotami z databáz, nie s konkrétnymi dátami. Výsledok tak môže pôsobiť presne, ale ide len o odhad „typickej verzie“ potraviny.

Tento limit priznávajú aj samotné modely. ChatGPT-4 napríklad uviedol, že nevie určiť, či sú cornflakes obohatené o vitamíny a minerály, hoci to zásadne ovplyvňuje ich nutričný profil.

Dáta to potvrdzujú aj číselne. V analýze 114 jedál bola priemerná odchýlka približne 26,9 %. Pri väčšine živín presiahla chyba 10 % a v 11 z 16 prípadov AI hodnoty systematicky podhodnocovala.

To znamená, že aj keď energia a základné makrá môžu vyzerať relatívne presne, mikronutrienty sú často mimo reality.

Najväčší problém vzniká pri sledovaní mikroživín. Človek s anémiou môže mať pocit, že prijíma dostatok železa, aj keď ho má v skutočnosti menej. Rovnako pri sodíku, cukre alebo iných kritických látkach môže AI systematicky skresľovať realitu – a používateľ to nemá ako odhaliť.

Preto platí jednoduché pravidlo: čím viac spracované jedlo, tým menej sa dá spoľahnúť na AI analýzu z fotografie.

Ak záleží na presnosti, je nevyhnutné pracovať s konkrétnymi dátami:

  • presný názov produktu
  • nutričný štítok
  • alebo databáza prepojená na konkrétnu značku

Bez toho AI vždy pracuje len s priemerom. A priemer v tomto prípade často znamená odchýlku, ktorá môže byť nutrične zásadná.

10. Stochastická náhodnosť: Iná odpoveď na tú istú fotku

Na rozdiel od kalkulačky alebo laboratórnej váhy AI nefunguje ako presný, opakovateľný nástroj. Je to pravdepodobnostný systém. To znamená, že rovnaký vstup nemusí viesť k rovnakému výsledku.

V praxi to vyzerá jednoducho: tá istá fotka jedla môže vrátiť rôzne hodnoty – bez toho, aby sa na nej čokoľvek zmenilo.

Dôvodom je tzv. stochastická náhodnosť. Model negeneruje odpoveď výpočtom podľa pevného vzorca, ale „vyberá“ najpravdepodobnejší výsledok na základe naučených dát. A tento výber sa môže mierne líšiť pri každom použití.

Výsledok je, že AI nie je plne konzistentná.

Jednoduchý príklad:
jeden deň vám AI odhadne obed na 500 kcal, na druhý deň – pri tej istej fotke – na 600 kcal. Nie preto, že by sa zmenilo jedlo, ale preto, že sa zmenil samotný výstup modelu.

Podobný problém sa ukázal aj pri testovaní diét. Pri opakovaní tej istej požiadavky na rovnaký zdravotný profil (napr. diabetik) modely generovali odlišné, niekedy aj nekonzistentné odporúčania. To znamená, že AI nevytvára stabilný referenčný bod.

A práve to je zásadný problém pri sledovaní progresu. Ak sa čísla menia nie kvôli reálnemu správaniu, ale kvôli variabilite nástroja, používateľ stráca schopnosť vyhodnotiť, čo funguje.

Inými slovami:
neviete, či sa mení vaše telo, alebo len odpoveď algoritmu.

Z pohľadu vedy je to ešte väčší problém. Spoľahlivý nástroj musí byť reprodukovateľný – rovnaký vstup má viesť k rovnakému výsledku. Pri AI to dnes neplatí.

Aj preto odborníci navrhujú, aby sa pri práci s AI nepracovalo s jedným číslom, ale s rozsahom výsledkov. Namiesto jednej hodnoty by sa mali robiť viaceré výpočty a sledovať priemer alebo interval spoľahlivosti.

To však výrazne komplikuje bežné používanie.

Hlavné riziko je opäť skryté. Výstup pôsobí presne, konkrétne a definitívne. Používateľ nemá dôvod pochybovať. V realite však ide o „najlepší aktuálny odhad“, nie o stabilný výsledok.

Preto platí jednoduché pravidlo:
AI dnes nie je merací nástroj, ale odhadový nástroj.

A kým sa nezačne opierať o deterministické výpočty namiesto generatívnych odpovedí, jej presnosť bude vždy závisieť od momentálneho „výberu“ modelu – nie od objektívnej reality.

AI vo výžive má obrovský potenciál. Ale dnes ešte nie je presný nástroj. Je to odhadový nástroj.

Vie zrýchliť proces, zjednodušiť zapisovanie a dať základný prehľad. Nevieme sa na ňu však spoľahnúť tam, kde rozhodujú detaily.

A práve tie detaily vo výžive rozhodujú najviac.

Problém nie je, že AI robí chyby. Problém je, že tie chyby nevidíš.

Výstupy vyzerajú presne, pôsobia odborne a dávajú zmysel. A preto im ľudia veria viac, než by mali.

Ak to zjednodušíme na jednu myšlienku:
👉 AI dnes vie pomôcť. Ale nemala by rozhodovať.

Ak ti ide len o orientáciu, je to fajn nástroj. Ak ti ide o presnosť – či už pri chudnutí, výkone alebo zdraví – potrebuješ viac než odhad.

A presne tam má stále svoje miesto človek, dáta a pochopenie kontextu.

Zdroje:
https://www.cambridge.org/core/journals/british-journal-of-nutrition/article/validity-and-accuracy-of-artificial-intelligencebased-dietary-intake-assessment-methods-a-systematic-review/6829E54E37F38BB07D09A97D5982C73D
https://pmc.ncbi.nlm.nih.gov/articles/PMC11243505/
https://pmc.ncbi.nlm.nih.gov/articles/PMC11206595/
https://pubmed.ncbi.nlm.nih.gov/38194819/
https://pubmed.ncbi.nlm.nih.gov/38060823/
https://www.sciencedirect.com/science/article/pii/S088915752501659X
https://pubmed.ncbi.nlm.nih.gov/39125452/
https://pubmed.ncbi.nlm.nih.gov/41081011/
https://pmc.ncbi.nlm.nih.gov/articles/PMC12367769/
https://pmc.ncbi.nlm.nih.gov/articles/PMC11199627/
https://www.mdpi.com/2072-6643/16/15/2573
https://www.mdpi.com/2072-6643/17/4/607
https://www.mdpi.com/2072-6643/17/2/206
https://www.researchgate.net/publication/395491050_Performance_evaluation_of_Three_Large_Language_Models_for_Nutritional_Content_Estimation_from_Food_Images
https://www.researchgate.net/publication/399109330_Image-based_nutritional_assessment_evaluating_the_performance_of_ChatGPT-4o_on_simple_and_complex_meals
https://scholarworks.merrimack.edu/cgi/viewcontent.cgi?article=1195&context=health_facpubs

Kategória:

Strava & Výživa,

Posledná aktualizácia: 10 apríla, 2026