Intelligenza artificiale e stampatori (ma non solo). Due suggerimenti per iniziare bene.

Lo so. Immagino che vedere scritto di nuovo intelligenza artificiale possa provocare reazioni che vanno dalla scrollata di spalle alla nausea, a seconda di come siamo stati esposti all’argomento.

Ma qualcosa sta succedendo, e succede ora e, a prescindere dal nostro interesse, disgusto, timore o dalla nostra curiosità, l’intelligenza artificiale cresce e prolifera in maniera repentina.

Se vi sentite un pochino persi e fate fatica a capire come questa rivoluzione potrebbe impattare (anzi, impatterà), benvenuti in questo grande club, di cui anch’io faccio parte.

Il lato positivo è che questo momento è perfetto per ritagliarsi un po’ di tempo e cercare di afferrare un paio di concetti che, secondo me, sono fondamentali, qualunque cosa accada in futuro e come l’intelligenza artificiale evolverà nel nostro ambito.

Sono basati sulla mia esperienza fino ad ora, cercando di andare oltre la superficie degli slogan e capire come un professionista che oggi ha un’azienda, può cominciare a muovere i passi giusti nella contestualizzazione di questa innovazione tecnologica, che vi assicuro, se ben compresa e usata, può far fare un salto in avanti ad ogni organizzazione. Allora, cominciamo.

C’era una volta

Chi è nella stampa digitale da un po’ e si guarda indietro, scopre come cose che sembravano assolute e inossidabili sono cambiate, evolute o scomparse. Dai cartelli dell’insegna dipinte a mano alle stampanti digitali di grande formato, dai caratteri della tipografia all’offset digitale, dalla fresatura alla stampa 3D, dai plotter a penna al getto d’inchiostro, dalle serigrafie con prodotti di massa a prodotti singoli personalizzati con tecnologie digitali.

Pensate poi al modo in cui il comunicare la propria attività è evoluto e ha creato cose nuove. Prima il passaparola, poi i manifesti, poi la radio o la TV (a seconda dei budget). Poi la mail, la newsletter, il sito web, la necessità di essere trovati, e quindi la SEO, i social, la pubblicità online a pagamento, le keyword, le immagini, i video, YouTube, i reel, TikTok, i contenuti. Tutta roba che prima non c’era e che era difficile prevedere che accadesse.

Curve a U, che hanno repentinamente cambiato il nostro modo di lavorare. Come diceva l’economista Oren Harari, l’invenzione della lampadina non è arrivata da un continuo miglioramento delle candele. Cioè, a un certo punto si svolta.  Si può però evitare che questa svolta ci colga impreparati.

Allacciare le cinture

Per l’intelligenza aartificiale, mi focalizzerei su due cose.

Partiamo dalla prima: capire, almeno a grandi linee, cosa c’è dietro l’intelligenza artificiale a livello tecnico, per poi facilmente valutare le varie proposte che ci arriveranno.

Capire cioè che l’intelligenza artificiale è un mondo, che abbraccia diverse metodologie che tendono a far fare alle macchine operazioni che semplificano e aiutano l’uomo.

Sapere poi che le macchine possono essere addestrate con procedure che si chiamano Machine Learning e che il Machine Learning diventa più sofisticato quando utilizza architetture basate su reti neurali (così chiamate perché mimano i nostri neuroni, in realtà sono dei sofisticati complessi matematici che lavorano proprio come un neurone e i suoi collegamenti, dando più o meno importanza ad alcuni input, a seconda dell’output che si vuole ottenere).

L’evoluzione delle reti neurali, dell’hardware a supporto per fare calcoli enormi con grandi quantità di dati, di algoritmi sempre più sofisticati (pensiamo agli algoritmi come a una serie d’istruzioni per far fare al nostro sistema di AI dei particolari compiti), tutto questo ha portato a un sottoinsieme del Machine Learning che si chiama IA generativa.

Tirate il fiato ora, questa premessa era necessaria per arrivare a un punto che considero chiave per noi: comprendere quello che sta succedendo oggi.

AI generativa e dintorni

L’IA generativa appunto genera, cioè crea cose nuove che prima non c’erano. Mentre un classico sistema guidato da IA più semplici (per modo di dire), come ad esempio il sistema di raccomandazione di Netflix per il prossimo film che magari potrebbe piacere, fa solo quel compito (task), l’IA generativa, nel suo ambito genera un nuovo contenuto. Questo avviene semplicemente chiedendolo.

Incredibile vero? Ma come con le persone, bisogna saper chiedere. Ci torniamo tra un attimo.

L’IA generativa ha un altro sottoinsieme (lo so, sembra complicato ma non lo è così tanto) che si chiama LLM, Large Language Model, grandi modelli di linguaggio.

Questi sistemi di IA sono focalizzati sul testo.

Specificatamente, sono capaci di predire le giuste parole che compongono la risposta alla richiesta che noi abbiamo allegramente inserito nel nostro ChatGPT.

Semplifico questo concetto (e non me ne vogliano i più tecnici). Se a una persona chiedo “La matita è…..” lui probabilmente mi risponderà “sul tavolo” o “sulla scrivania”. Sono risposte che sono probabili statisticamente. Meno probabile è che la risposta sia “sott’acqua”. Potrebbe, ma statisticamente è molto improbabile.

Come abbiamo insegnato agli LLM a rispondere in maniera giusta alle nostre richieste? Facendogli ingerire tonnellate di contenuti disponibili digitalmente, allenando i modelli LLM con tecniche di Machine Learning, fornendogli domande e risposte, rifinendo le risposte quando non erano adeguate. Ho semplificato in maniera orribile ma il succo è questo.

I modelli di testo cercano la risposta più probabile alla nostra richiesta. Sapete come? Vettorializzando il testo, come un software RIP, e trasformandolo in un numero. Le parole vettorializzate, saranno disposte su più piani cartesiani virtuali all’interno del modello.

Nel caso precedente matita, tavolo e scrivania saranno vicini mentre sott’acqua sarà più lontano, e quindi meno probabile che venga usato come risposta.

ChatGPT è un LLM. Gemini è un LLM così come Claude e CoPilot. GPT sta per generative Pre-Trained Transformer, un sistema che genera (generative), addestrato e rifinito con enormi quantità di dati (pre-trained) basato su una rete neurale, appunto Transformer, molto sofisticata.

Questi modelli, che danno l’impressione di essere umani, in realtà sono modelli statistici allenati su prodotti di intelligenze umane che mimano artificialmente il nostro comportamento.

Questi sono le cose che dobbiamo conoscere.

Sapere come funzionano questi sistemi, da dove vengono e come sono composti ci permetterà di capire come verranno utilizzati all’interno dei nostri software che usiamo e smitizzeranno le varie terminologie usate dai fornitori e consulenti.

Ne capiremo poi anche i limiti. Ad esempio, essendo sistemi programmati per predire, daranno sempre una risposta, anche se inventata (si parla in questo caso di allucinazioni). Infatti, il loro obiettivo è di eseguire sempre il loro task, che in questo caso è dare una risposta. Più che un problema, è paradossalmente la loro natura.

Quindi?

Gli LLM stanno diventando da generalisti a verticalisti. Cosa cambia? Cambia il set di dati con cui essi vengono addestrati. E succederà che prima o poi vi proporranno dei sistemi basati su IA, che presumibilmente saranno degli LLM. Questi LLM potranno funzionare prioritariamente con i vostri dati.

Immaginate di poter collegare la vostra parte documentale, la parte di analitica del web o del vostro CRM e poter sfruttare la potenza di questi dati che oggi sono frammentati su differenti piattaforme o database (o file Excel). Immaginate di poter collegare anche questi sistemi che esplorano le novità di mercato e poter trarre, semplicemente con una domanda, una tendenza o un modo di potersi promuovere in un mercato o ai clienti che hanno già fatto acquisti. Immaginate un chatbot che risponde h24 utilizzando i vostri dati e l’approccio che voi volete, per generare interesse e contatti.

In più, anche i sistemi robotizzati, che verranno sempre più implementati all’interno delle produzioni (vuoi per la mancanza di forza lavoro o perché i collaboratori possono fare cose più creative mentre i robot quelle più ripetitive), eseguiranno istruzioni basati su comandi in linguaggio naturale.

Conoscere quindi la tecnologia (almeno a grandi linee), come funziona e i suoi limiti insiti e soprattutto come dialogare con essa. Ed ecco il secondo punto. Vediamolo insieme.

Parlare con l’IA

Un passo indietro. Abbiamo visto che gli LLM sono un sottoinsieme dell’IA generativa. L’IA generativa non contempla solo gli LLM focalizzati sui testi, ma anche sistemi per generare immagini, audio, video, parlato e codice di programmazione.

Piattaforme come DALL-E, Midjourney o Firefly per le immagini, Runaway, Pika, HeyGen o Sora per il video, Stable Audio, Suno o Whisper per l’audio, offrono diverse possibilità di generare le cose che ci servono.

Qual è la cosa in comune tra questi software e gli LLM? Possiamo chiedere cosa ci serve. C’è il linguaggio che ci permette d’interfacciarci con loro, e noi programmiamo questi sistemi con il nostro linguaggio naturale.

Non per questo una delle piattaforme più diffuse si chiama ChatGPT, dove il chattare (parlare) è rappresentato visivamente da un box dove scrivere. L’esplosione dell’IA in termini di diffusione è partita quando OpenAI ha messo a disposizione di tutti la possibilità di parlare con la piattaforma in maniera naturale (si parla infatti anche di programmazione con linguaggio naturale).

I sistemi si basano su questo. In gergo, l’istruzione che noi diamo si chiama prompt. Per i più stagionati, il prompt era la linea dove immettere i comandi sui vecchi sistemi MS-DOS. Oggi il prompt è una finestra e saper chiedere in maniera giusta alla nostra IA quello che vogliamo ottenere è fondamentale.

Non per niente, si è sviluppata quella nuova specialità che si chiama prompt design o prompt architecture. In pratica, si tratta di contestualizzare bene la richiesta e iterare a più riprese per raffinarla ed avere risultati che fanno veramente la differenza. Di nuovo, programmiamo la macchina con il linguaggio con un approccio pressochè simile e fatto di alcuni semplici regole:

  • Dare contesto, dire all’IA chi deve impersonare;
  • Definire il compito che deve eseguire, il task;
  • Dare le istruzioni su come farlo e come riprodurlo (tono, approccio, sentiment);
  • Definire l’audience a cui il risultato “parlerà”;
  • Il formato di uscita (lingua, lunghezza, formattazione);
  • Se occorre, definire dei limiti (non dire x o y);
  • Dare degli esempi in modo che la macchina capisca prima cosa deve fare (questa tecnica si chiama few-shot learning)

Si può anche chiedere al nostro LLM di rivedere il prompt e farci suggerire miglioramenti. Sulle piattaforme di Generative AI per immagini e video, oltre al testo, si possono inserire parametri per ottenere output specifici (ad esempio per le immagini si può specificare la focale, il tipo di apparecchio fotografico o la pellicola).

Da ricordare anche che i sistemi LLM, prioritariamente costruiti per il testo, oggi si definiscono multi-modali o omni-modali. Significa che oltre ad input e output testuali, possono fornire anche accettare immagini o altre tipologie di file (fogli di calcolo, pdf) e restituire output in immagini, tabelle e altro ancora. Quindi spesso combinano diverse modalità generative. Sono sicuro che a breve verranno supportate anche altre funzioni, essendo questo un argomento in divenire.

Comunque, c’è una tonnellata di materiale in giro e non è questo il luogo su cui approfondire sulle tecniche di prompt. Ho citato quanto sopra per far vedere praticamente quanto è importante imparare a scrivere bene le nostre richieste.

Questo è il secondo punto quindi. Insieme alla tecnologia, dobbiamo far nostro il dialogo.

Per concludere

Come si evince, l’argomento è vasto e per questo complesso, almeno all’inizio. So anche che ho semplificato alcuni concetti e omesso alcuni dettagli e trascurato le implicazioni etiche ma per il fine dell’articolo, non erano indispensabili.

Facendo propria la tecnologia (ad alto livello ovviamente, senza diventare dei programmatori) e la maniera di dialogare con le piattaforme, facciamo già un bel grosso passo avanti.

Poi tutto sembrerà magicamente più semplice e potremo gestire eventuali proposte di fornitori o agenzie, capire le integrazioni di IA ai nostri software esistenti, seguire le evoluzioni senza perdersi.

Come farlo?

In due modi principalmente. Seguire corsi e ritagliarsi dello spazio per approfondire. L’IA abbraccia non solo la tecnologia, ma anche l’etica, la filosofia, la finanza.  Questo vi fa capire come essa sia un evento che impatta tutto il nostro mondo contemporaneo a una velocità molto sostenuta.

Mettete a budget un bel corso, preferibilmente in presenza, per voi e il vostro personale. Ci sono tante agenzie che lo offrono oppure pagate un consulente che venga in azienda.

Chiedete di approfondire l’IA generativa, gli LLM e le tecniche di prompt, così come le varie attività che tramite buoni prompt potete realizzare: brainstorming, content, data analysis, calendari social, creazione massiva di post, nuove idee per i clienti, analisi della concorrenza, scrittura di guide e articoli, revisione dei nostri testi, immagini, video clip, traduzioni, video in altre lingue.

Veramente non c’è limite. Appunto per questo, dobbiamo imparare a guidarla e a farla nostra. Non ve ne pentirete!

Autore: Vittorio

Sono una persona con oltre 20 anni di esperienza in marketing, vendite, supporto tecnico e management B2B. Amo il mondo della stampa e la riproduzione digitale e tutta la creatività che gira intorno. Mi diverto moltissimo soprattutto nel marketing e affronto quotidianamente temi che vanno dalla strategia al management dei team, piani di marketing, budget, piattaforme social e dati. Mi piace tantissimo la stampa e la riproduzione digitale e tutto il mondo che vi ruota intorno. Nel mio marketing mix quotidiano c'è un po' di tutto: web, digital media, stampa, multi-media, eventi e fiere, content & strategie editoriali, media relations, comunicazione interna, CRM, CMS, sviluppo di proposte di prodotti e servizi, messaggi di brand, design creativo e immagini, combinando creatività e spirito imprenditoriale.