Realizzare un’interfaccia utente partendo da un’idea grezza non è mai stato così semplice. Con Stitch, uno degli esperimenti più promettenti lanciati al Google I/O 2025, basta uno schizzo su un tovagliolo o una semplice descrizione testuale per generare un prototipo visivo e persino il codice frontend. L’obiettivo dichiarato è quello di accorciare la distanza tra ideazione e sviluppo nelle fasi iniziali di un progetto, velocizzando un processo che normalmente comporta un lungo scambio tra designer, product manager e sviluppatori.
Dallo schizzo al codice: Google presenta Stitch per designer e sviluppatori
Con Stitch, l’utente può semplicemente scrivere un prompt dettagliato, come ad esempio “app di fitness con palette viola, grafici animati e sezione community”, e ottenere un’interfaccia coerente e pronta all’uso. L’AI si occupa di generare layout, colori e interazioni a partire dai requisiti immaginati.
Ma il vero punto di forza è la versatilità degli input: è possibile caricare anche schizzi cartacei, screenshot o wireframe minimali, e Stitch li traduce in una UI digitale editabile. Il sistema permette inoltre di testare rapidamente molteplici varianti, favorendo un approccio esplorativo e iterativo al design.
Una volta generata l’interfaccia, Stitch consente due opzioni: esportare il progetto direttamente in Figma per ulteriori modifiche oppure ottenere codice HTML/CSS/JavaScript già strutturato per l’implementazione.
A differenza di concorrenti come v0 di Vercel, Stitch adotta un flusso creativo opposto: invece di partire da un design statico, genera il design a partire dall’idea. Inoltre, la sua integrazione con Material Design e il supporto alle API Gemini per personalizzazioni avanzate lo rendono particolarmente adatto a team che già lavorano con le tecnologie Google.
Stitch è parte di Google Labs, ed è già disponibile in versione beta.