RSS

Archivi tag: OpenAI

Gemini entra in Siri e conquista… il mondo Mobile

A volte anche le big tech hanno bisogno di una mano. È quello che è successo ad Apple che, dopo svariati tentativi con risultati poco convincenti nel campo dell’intelligenza artificiale, per migliorare Siri ha deciso di chiedere il supporto di Google. La prossima versione dell’assistente vocale dell’iPhone – in arrivo entro alcuni mesi – sarà infatti basata su Gemini.

L’accordo vale un miliardo di dollari l’anno e “chiude” un percorso a cui Apple è arrivata battendo varie strade: prima ha tentato lo sviluppo di un proprio sistema AI proprietario con esiti poco incoraggianti, poi ha pensato ad alcuni partner (Anthropic e OpenAI), infine ha visto in Google la soluzione ai suoi problemi.

Questa scelta di Apple ricorda in parte quello che fece Microsoft qualche anno fa con il suo browser Edge: dopo aver constatato che il proprio motore di rendering non riusciva a competere con la concorrenza, nel 2019 decise di abbandonare la tecnologia proprietaria e di basare Edge su Chromium, lo stesso sistema open source che sta alla base di Google Chrome. Una strada difficile da imboccare per Microsoft, che dopo l’era di Internet Explorer aveva cercato di mantenere il controllo completo del proprio browser, ma possiamo considerarla un’onorevole ammissione dei limiti emersi nel progetto.

Questo accordo consente a Apple di recuperare il terreno perduto e mantenersi competitiva, mentre per Google rappresenta un’importante risultato in termini di visibilità e influenza, perché vede riconosciuta da un competitor la superiorità della propria tecnologia AI che diventa lo standard de-facto dell’AI conversazionale su miliardi di dispositivi mobili (Android + iOS).

Siri fa indubbiamente un upgrade, da assistente vocale limitato a vero assistente conversazionale integrato nel sistema operativo, in grado di gestire contesto, ragionamento e task complessi in modo nativo, grazie al supporto di un’intelligenza artificiale potente “di default” integrata nel sistema e non relegata a servizio esterno da aprire separatamente.

In questo contesto OpenAI appare lo “sconfitto” del gruppo, perché rimanendo fuori dal mondo Apple perde il treno che avrebbe potuto portare la sua AI generativa all’integrazione sistemica e alla distribuzione di massa.

 
Lascia un commento

Pubblicato da su 27 gennaio 2026 in news

 

Tag: , , , , , , , , ,

Chi l’ha scritto? Tu o l’intelligenza artificiale?

La scorsa settimana alcuni osservatori hanno commentato il post pubblicato da Chiara Ferragni in seguito al suo proscioglimento dall’accusa di truffa aggravata legata ai casi del pandoro e delle uova, evidenziando quanto – ai loro occhi – quel testo fosse stato scritto con l’ausilio di ChatGPT o un altro assistente artificialmente intelligente. Alcune frasi hanno attirato l’attenzione per come apparivano costruite, ad esempio:

È una frase semplice, tecnica, definitiva sul piano penale. Ed è giusto partire da qui

Non lo dico con rabbia. Lo dico con consapevolezza

Non è: “Non sappiamo com’è andata”. È: “Non c’erano le basi per portare avanti un procedimento penale”

Queste frasi hanno uno stile formale, strutturato e metodico, che a molti ha ricordato in modo inequivocabile quello dei testi generati dall’intelligenza artificiale. Che quel post sia stato effettivamente scritto con l’ausilio dell’intelligenza artificiale o meno, il caso ha acceso i riflettori su un fenomeno sempre più diffuso: in una realtà caratterizzata da una presenza sempre più invasiva della tecnologia, l’intelligenza artificiale si sta affermando non solo come strumento di lavoro, ma come vera e propria guida espressiva. Giorno dopo giorno sta progressivamente modificando il modo in cui parliamo e scriviamo, con conseguenze che vanno ben oltre la semplice adozione di nuovi termini tecnici.

Chi è attento a questi temi potrebbe aver già sentito parlare di uno studio condotto dal Max Planck Institute for Human Development di Berlino, che ha portato alla luce un fenomeno tanto affascinante quanto inquietante: analizzando circa 280mila trascrizioni di video provenienti da oltre 20.000 canali accademici su YouTube, i ricercatori hanno scoperto che l’uso di ChatGPT sta lasciando un’impronta indelebile sul nostro vocabolario quotidiano.

I dati della ricerca: termini come “meticoloso”, “approfondire”, “regno” ed “esperto” sono apparsi con una frequenza superiore fino al 51% rispetto ai tre anni precedenti all’introduzione del chatbot di OpenAI. Non si tratta di una coincidenza: queste – secondo gli autori dello studio – sono esattamente le parole che ChatGPT utilizza con maggiore frequenza nelle sue risposte, come confermato da precedenti ricerche della Stanford University. Il fenomeno è presto spiegato: stiamo interiorizzando il vocabolario dell’intelligenza artificiale nella comunicazione di tutti i giorni. Se fino a oggi ci siamo interrogati su come rendere l’AI più simile agli esseri umani, ora i dati indicano che sta accadendo esattamente l’opposto: siamo noi ad adattarci al linguaggio delle macchine.

Alcune parole – evidenzia lo studio – funzionano come vere e proprie “firme invisibili” del linguaggio plasmato dall’AI. La standardizzazione del linguaggio sta coinvolgendo anche termini inglesi precedentemente poco utilizzati in forma discorsiva, come “underscore” (sottolineatura), “showcasing” (in mostra), “intricate” (intricato) o “tapestry” (arazzo), che ora compaiono con frequenza crescente non solo negli articoli scientifici e nelle conferenze tecniche, ma anche nei libri scolastici e nelle conversazioni spontanee.

Questa uniformità linguistica ha dato vita a un nuovo campo di ricerca e sviluppo: quello dei software di rilevamento dei contenuti generati dall’intelligenza artificiale come Isgen, ZeroGPT, Grammarly AI detector, Textguard (ma ne esistono molti altri). Sono strumenti – disponibili anche online – che analizzano i testi alla ricerca di pattern caratteristici, proprio come un esperto grafologo riconosce una calligrafia, basandosi sulla frequenza di determinate parole chiave, oppure sull’uso di una struttura sintattica eccessivamente regolare, con frasi costruite secondo schemi ripetitivi e una punteggiatura metodica che raramente si discosta dalle convenzioni standard.

Un altro elemento rivelatore è la mancanza di variabilità stilistica: mentre un autore umano alterna naturalmente periodi lunghi e brevi, oppure espressioni formali e colloquiali, i testi generati dall’intelligenza artificiale tendono a mantenere un registro costante e prevedibile. Anche la profondità concettuale può essere un indizio: l’intelligenza artificiale eccelle nell’organizzare informazioni conosciute, ma è meno pronta a produrre intuizioni veramente originali o collegamenti tra concetti apparentemente lontani.

Questi strumenti possono comunque dare dei “falsi positivi”, non solo perché la loro accuratezza non è assoluta, ma perché il crescente uso dell’AI nella scrittura rende sempre più sottile il confine tra un contenuto “umano” e un testo assistito dall’intelligenza artificiale. Questo aspetto fa nascere preoccupazioni di natura sia sociale che politica: c’è un rischio concreto che l’AI possa ridurre la diversità linguistica o essere deliberatamente utilizzata in modo improprio per la manipolazione di massa. La progressiva standardizzazione del linguaggio potrebbe portare a una perdita di autenticità e spontaneità nelle relazioni umane, impoverendo il patrimonio culturale rappresentato dalle espressioni regionali, dai modi di dire e dalle sfumature tipiche di ogni comunità linguistica.

Un esperimento condotto dal MIT Media Lab ha inoltre rivelato che l’uso intensivo dei chatbot per scrivere testi accademici può avere un effetto negativo sul cervello umano, riducendo l’attività cognitiva e limitando la capacità di apprendimento. Il rischio, confrontandoci con macchine che assemblano parole, è di diventare noi stessi un po’ meno umani. Se continuiamo ad adattarci al linguaggio dell’intelligenza artificiale, potremmo trovarci di fronte a un futuro in cui le macchine assumono il ruolo di modelli culturali.

Anche la lingua italiana non è immune da questa trasformazione. Tra le parole dell’anno messe in evidenza dalla Treccani troviamo alcuni possibili neologismi coniati nel 2025, molti dei quali legati all’influenza dell’intelligenza artificiale. Tra questi figurano “allucinazione della intelligenza artificiale”, che indica l’informazione errata prodotta da un sistema AI, e “nudificazione”, la creazione abusiva e illegale di nudi falsi. C’è poi “Broligarchia”, che descrive la ristretta cerchia di uomini ricchi e potenti del settore tecnologico che condizionano orientamenti politici e scelte governative, mentre “metatelefono” indica un rettangolo di plastica trasparente simile a un cellulare, ma finto. Questi termini rappresentano una fotografia fedele dei tempi correnti, dove tecnologia, cronaca, politica ed economia si intrecciano nel tessuto linguistico quotidiano.

Non mancano tuttavia gli aspetti positivi di questa trasformazione. In un’epoca caratterizzata da una comunicazione sempre più globale e digitale, la chiarezza e la coerenza offerte da un linguaggio standardizzato possono rappresentare un vantaggio concreto. Nei contesti professionali e istituzionali la capacità di esprimersi in modo chiaro, ordinato e privo di ambiguità viene percepita come competenza. Questo spiega perché molte persone scelgano consapevolmente di adottare lo stile comunicativo delle intelligenze artificiali, nella convinzione che ciò possa rafforzare la propria credibilità.

In definitiva, l’influenza dell’intelligenza artificiale sul nostro modo di esprimerci rappresenta un fenomeno complesso e dalle molteplici sfaccettature: da un lato assistiamo a una maggiore chiarezza e standardizzazione della comunicazione, dall’altro rischiamo di perdere l’uso del cervello, insieme alla ricchezza e la diversità che caratterizzano il linguaggio umano nelle sue infinite variazioni culturali e individuali.

La sfida per il futuro sarà trovare un equilibrio: sfruttare i vantaggi della tecnologia senza perdere l’autenticità, la creatività e la spontaneità che rendono unica la comunicazione umana. Sarà necessario mantenere il controllo sulle macchine, affinché rimangano strumenti al nostro servizio, senza diventare i modelli a cui conformare pensiero e linguaggio. Solo così potremo preservare quella diversità linguistica e culturale che costituisce una delle ricchezze più preziose dell’umanità, mantenendo al contempo la capacità di riconoscere e valorizzare il contributo umano alla produzione di conoscenza e cultura.

 
Lascia un commento

Pubblicato da su 20 gennaio 2026 in news

 

Tag: , , , , , , , , , , , , , ,

La versione di Bard

Vi ricordate quando ho fatto quel piccolo test con la chat dotata di intelligenza artificiale in Bing (il motore di ricerca di Microsoft)? Ho fatto la stessa cosa con Bard, il chatbot sviluppato da Google che si inserisce in questo nuovo settore (di cui fa parte anche ChatGPT). Parentesi: un chatbot è un software che interagisce con un utente simulando una conversazione umana. Si utilizzano già da molto tempo e probabilmente voi stessi vi siete imbattuti nei chatbot attivati su siti web o pagine social del servizio clienti di qualche grande azienda.

Detto questo, parto con la stessa domanda con cui avevo inziato il test precedente. E vi dico già che partiamo malissimo per un piccolo dettaglio:

14, 15, 16 gennaio. Peccato che io abbia inserito questa domanda in Bard alle 7 del mattino del 27 luglio. Premendo il tasto “ricarica”, però, Bard ricarica anche le batterie del suo orologio-calendario, e riformula una risposta accettabile:

Anche qui ho lanciato una “trappola culinaria”, che Bard ha gestito in modo appropriato…

Dietro Bard troviamo un modello di linguaggio conversazionale chiamato PaLM 2 (Pathways Language Model), naturalmente realizzato da Google AI. Se avete un account Google potete utilizzarlo per testarne le potenzialità, formulando richieste o domande. Nella colonna a sinistra della schermata troverete una cronologia delle conversazioni che avete intrattenuto con Bard. 

Le caratteristiche interessanti di Bard sono due, a mio parere.

  1. Ad ogni richiesta lui risponde con tre bozze, cioè fornisce la risposta in tre versioni differenti. Se all’utente non va bene nessuna delle tre, c’è il pulsante di ricarica che spinge Bard a generare una nuova serie di risposte (che è ciò che ho fatto io quando le previsioni meteo indicavano date palesemente sbagliate).
  2. Le richieste possono essere inserite digitandole da tastiera oppure a voce. E anche la risposta può essere letta vocalmente.

Bard, a fine risposta, talvolta fornisce delle note (caratteristica costante della chat di Bing), contrariamente a ChatGPT che invece fornisce i link alle fonti esterne da cui trae informazioni. Anche lui offre solo una risposta alla query dell’utente, ma sicuramente è più completa.

L’etichetta “sperimentale” che compare a fianco del logo sta comunque a significare che lo sviluppo porterà ulteriori miglioramenti.

 
1 Commento

Pubblicato da su 27 luglio 2023 in intelligenza artificiale, news

 

Tag: , , , , , , ,