Stimare le calorie con una foto funziona davvero? La scienza dietro a Tabeku
Sfatizziamo i miti sulla nostra fotocamera intelligente. Scopri come la visione artificiale e i modelli linguistici stanno rivoluzionando l'analisi nutrizionale.
Spesso riceviamo domande che fondono stupore e uno scetticismo logico. Molti utenti, abituati alle app nutrizionali del passato, ci pongono un dubbio molto valido:
“Come può un’app sapere quante calorie e macro ci sono nel mio cibo solo guardandolo attraverso una fotografia?”
Dopo anni trascorsi a dover cercare manualmente gli alimenti e pesarli grammo per grammo tutti i giorni, è comprensibile che una funzione di stima visiva sembri magia o un’esagerazione pubblicitaria.

Tuttavia, ciò che si attiva ogni volta che premi il pulsante della fotocamera non ha nulla a che fare con la magia. Si tratta di una convergenza tecnologica di reti neurali di visione artificiale che operano insieme a grandi modelli linguistici (LLM).
Di seguito, spiegheremo esattamente come funziona questo processo dal momento in cui scatti la foto fino a quando ricevi i tuoi macronutrienti.
I 3 pilastri che rendono possibile la rivoluzione visuelle di Tabeku
Rendere una fotocamera in grado di comprendere la nutrizione è uno dei traguardi tecnologici recenti più utili. Il nostro sistema combina diversi livelli di intelligenza artificiale capaci di analizzare dati complessi in microsecondi:
1. Rilevamento e analisi visiva degli ingredienti (Computer Vision)
Il primo passo è identificare i componenti del piatto. Tuttavia, il sistema non si accontenta di classificare semplicemente “carne” o “pane”. Le reti neurali sono addestrate su milioni di immagini per rilevare trame, densità e gradi di cottura.
Ad esempio, analizzando i pori della mollica e le sfumature della cottura, può distinguere una fetta morbida di brioche ricca di burro da un denso pane di segale integrale. Inoltre, l’IA esamina i riflessi e la lucentezza visiva degli alimenti per scoprire la presenza di oli di cottura aggiunti. Può determinare se una patata è cotta in modo naturale, saltata in padella o fritta in abbondante olio, regolando drasticamente l’impatto calorico stimato.
2. Inferenze volumetriche 3D e prospettiva
Trovare un pezzo di salmone in una foto è solo metà dell’equazione; determinare quanto pesa è la vera sfida. Una semplice immagine in 2D non è sufficiente per conoscere la profondità del cibo.
Calcolando la prospettiva geometrica e utilizzando riferimenti visivi universali (come le dimensioni standard delle posate, il diametro tipico del piatto o l’angolazione della fotocamera), gli algoritmi stimano il volume tridimensionale delle porzioni.
Il sistema comprende il concetto di densità nutrizionale: sa che una ciotola piena di foglie di spinaci occupa un grande volume visivo ma possiede un basso contenuto calorico, mentre solo un grosso cucchiaio di burro di arachidi, che occupa una frazione di quello spazio visivo, rappresenta un valore calorico dieci volte superiore.
3. Contesto umano tramite Grandi Modelli Linguistici (LLM)
Gli algoritmi di visione artificiale sono eccellenti nel riconoscere i pixel, ma mancano del buon senso umano. Ecco perché i dati visivi rilevati passano attraverso un grande modello linguistico (LLM), che fornisce un profondo contesto situazionale e culturale.
Immagina di fotografare un classico contenitore da asporto in cartone pieno di noodle asiatici. L’IA visiva rileverà “noodle, carne, verdure”. Ma l’LLM ragiona un passo oltre:
“Questo è il tipico contenitore di un ristorante fast-food orientale. I noodle presentano un aspetto scuro e glassato che suggerisce un condimento generoso con salse dolci a base di soia e zuccheri, cucinati in un wok con abbondante olio vegetale.”
In questo modo, l’app aggiunge automaticamente alla stima strutturale quegli ingredienti “invisibili” (grassi nascosti, dolcificanti, riduzioni di salse) che celano la maggior parte delle calorie di origine commerciale—e che sono la principale causa degli stalli nella perdita di peso.
Il fattore chiave: L’apprendimento iterativo continuo
Ciò che rende Tabeku veramente potente rispetto a un database statico è la sua capacità di apprendimento iterativo.
Se a volte l’IA interpreta la tua purea di patate come hummus (un errore possibile data la somiglianza visiva), puoi intervenire e correggere l’app dicendo “No, è purea di patate”.
Il modello assimila questa correzione in tempo reale interagendo con te in forma conversazionale. Aggiorna i macro del pasto attuale e utilizza questi dati per affinare la precisione globale nel tempo.
L’obiettivo finale: Essere costanti senza sforzo
Nessun algoritmo visivo sarà perfetto al 100%, proprio come le etichette nutrizionali in commercio hanno margini d’errore consentiti dalla legge fino al 20%. Esigere la perfezione matematica da un piatto di cibo è un approccio biologicamente imperfetto.
Il vero obiettivo dell’IA di Tabeku è ridurre a zero l’attrito logistico della registrazione quotidiana. Eliminando il processo noioso, lento e burocratico del contare le calorie o scansionare i codici a barre, eviti l’affaticamento mentale. E quando il processo è facile e non interferisce con la tua vita sociale, moltiplichi radicalmente le tue possibilità di mantenere abitudini nutrizionali efficaci per sempre.
Può l'IA calcolare con precisione le calorie del tuo piatto?
Registra i tuoi pasti con l'IA — scatta una foto e ottieni calorie e macros istantaneamente.
Prova Tabeku Gratis