Walter Sun, Author at Âé¶¹Ô­´´ News Center Italy Notizie e informazioni su Âé¶¹Ô­´´ Mon, 23 Jun 2025 10:43:18 +0000 it-IT hourly 1 https://wordpress.org/?v=6.9.4 Dall’AI assistiva all’AI agentica: rischi, responsabilità e la strada da percorrere /italy/2025/06/dallai-assistiva-allai-agentica-rischi-responsabilita-e-la-strada-da-percorrere/ Fri, 13 Jun 2025 12:30:35 +0000 /italy/?p=140192 Il panorama dell’AI sta evolvendo a una velocità esponenziale. In precedenza, i sistemi di AI erano principalmente assistivi e reattivi, offrendo consigli o eseguendo task...

The post Dall’AI assistiva all’AI agentica: rischi, responsabilità e la strada da percorrere appeared first on Âé¶¹Ô­´´ News Center Italy.

]]>
Il panorama dell’AI sta evolvendo a una velocità esponenziale. In precedenza, i sistemi di AI erano principalmente assistivi e reattivi, offrendo consigli o eseguendo task predefiniti quando richiesto. Ora stiamo entrando nell’era dell’AI agentica: sistemi che operano autonomamente, si adattano in tempo reale e collaborano come se fossero dei colleghi digitali.

Ma man mano che l’AI diventa più indipendente, emergono nuovi rischi. Quindi, come possiamo affrontare questa prossima frontiera in modo responsabile? Questa è una domanda che in Âé¶¹Ô­´´ non lasciamo al caso.

Dagli strumenti ai colleghi del team

Immaginate di comprare un’auto. Ci si aspetta che soddisfi tutti gli standard di sicurezza, indipendentemente da dove vengono prodotte le componenti o come viene assemblata. Il processo dietro le quinte non cambia la vostra aspettativa di sicurezza. Lo stesso vale per l’AI agentica.

I sistemi di AI agentica sono più che strumenti; sono agenti intelligenti che pianificano, imparano dall’esperienza, si autoregolano e collaborano. Sono in grado di orchestrare processi complessi, prendere decisioni e persino interagire con altri agenti o esseri umani per raggiungere un obiettivo. Tuttavia, con questo balzo in avanti arriva un nuovo livello di complessità e rischio.

Funzionalità e rischi principali dell’AI agentica

I sistemi di AI agentica offrono potenti funzionalità come la pianificazione, la riflessione e la collaborazione, che permettono di affrontare task complessi in modo autonomo. Possono mappare le strategie, imparare dagli errori, utilizzare strumenti esterni e coordinarsi con le persone e altri agenti.

Tuttavia, ogni punto di forza comporta dei rischi. Ad esempio, una pianificazione difettosa può causare inefficienze, la riflessione può rafforzare comportamenti non etici, l’utilizzo di strumenti può portare a instabilità quando i sistemi interagiscono in modo imprevedibile, e una collaborazione non chiara può causare incomprensioni. Bilanciare queste capacità con adeguate misure di sicurezza è essenziale per un’implementazione sicura ed etica.

Gestire l’autonomia: bilanciare libertà e controllo

Una delle sfide più urgenti con l’AI agentica è la gestione della sua autonomia. Lasciati incontrollati, questi sistemi possono deviare dalla rotta, interpretare male il contesto o introdurre rischi sottili senza un rilevamento immediato. Per affrontare questo problema, le organizzazioni devono trovare un attento equilibrio tra libertà e controllo.

Abbiamo imparato che la supervisione dovrebbe essere calibrata in base al rischio. I settori con un alto intervento “umanoâ€, come l’assistenza sanitaria o la gestione HR, richiedono una solida supervisione da parte delle persone, mentre i compiti di routine a basso rischio possono tollerare una maggiore autonomia. Inoltre, il monitoraggio continuo è essenziale; i sistemi di AI agentica, come qualsiasi tecnologia complessa, richiedono controlli regolari per garantire qualità, conformità e affidabilità.

Un elemento chiave di questa supervisione è il mantenimento di un approccio “human in the loopâ€, in cui il giudizio umano è integrato in punti decisionali critici, garantendo che le azioni automatizzate rimangano allineate ai valori delle persone e agli scopi dell’organizzazione.

Questo principio è stato al centro dell’approccio etico di Âé¶¹Ô­´´ all’AI fin dall’inizio, rispecchiando la nostra convinzione che l’AI dovrebbe aumentare, non sostituire, il processo decisionale umano. A tal fine, Âé¶¹Ô­´´ ha introdotto revisioni etiche obbligatorie per tutti i casi di utilizzo dell’AI agentica, assicurandosi che ogni implementazione sia analizzata per rilevare eventuali implicazioni etiche e rimanga allineata ai nostri principi di AI responsabile.

Rafforzare la trasparenza e la responsabilità

La trasparenza non è solo una parola d’ordine; è un requisito fondamentale per creare fiducia nell’AI agentica. Fin dall’inizio, durante la fase di progettazione, è fondamentale classificare i sistemi AI in base alla complessità e al rischio dei compiti che svolgono. Questa classificazione guida le decisioni sulle garanzie necessarie e garantisce che i meccanismi di intervento umano siano integrati fin dall’inizio.

In fase di esecuzione, la trasparenza viene mantenuta attraverso la spiegabilità e la tracciabilità. Gli sviluppatori e gli utenti finali devono essere in grado di capire cosa sta facendo il sistema e perché. Fondamentalmente, la responsabilità deve sempre essere affidata alle persone o alle entità legali, mai all’AI stessa.

Ripensare la governance e la regolamentazione

L’emergere dell’AI agentica non è stata accompagnata dallo sviluppo di nuove normative specifiche. Le leggi e i framework esistenti come il GDPR continuano ad applicarsi e forniscono una solida base per la governance. Tuttavia, ciò che è cambiato è il livello di rigore tecnico necessario per rimanere conformi ed eticamente corretti. Le organizzazioni ora devono adottare processi più solidi. Devono analizzare i casi di utilizzo con maggiore precisione, applicare controlli basati sul rischio che corrispondano al potenziale impatto dell’AI e garantire che gli standard etici e legali siano rispettati attraverso pratiche di progettazione migliorate e test continui.

Progettare con i valori umani al centro

L’AI agentica non può essere una scusa per abbassare gli standard. In Âé¶¹Ô­´´, la posizione è inequivocabile: anche nei sistemi autonomi, l’AI deve soddisfare i più alti benchmark etici. Ciò significa incorporare principi come equità, trasparenza e intervento umano direttamente nel design.

In definitiva, tutti gli utenti dovrebbero essere dotati degli strumenti e della comprensione di cui hanno bisogno per supervisionare e, quando necessario, intervenire nel comportamento del sistema AI.

Costruire la fiducia in un mondo di scatole nere

La fiducia nell’AI non avviene per impostazione predefinita; deve essere costruita intenzionalmente e continuamente rinforzata. Uno dei modi più efficaci per farlo è fornire alle parti interessate la giusta quantità di informazioni. Troppi dettagli possono essere controproducenti mentre troppo poco potrebbe favorire la fiducia cieca o la paura dell’ignoto. La chiave sta nel comunicare chiaramente le capacità, i rischi, le limitazioni e l’uso appropriato del sistema. Consentire agli utenti di valutare criticamente il comportamento dell’AI e sapere quando intervenire è fondamentale per creare un ambiente AI sicuro, protetto e affidabile.

Ripensare i KPI nell’ambiente di lavoro potenziato dall’AI

Mentre i sistemi agentici, come i nostri Agenti Joule, iniziano a gestire più compiti, i ruoli delle persone si evolveranno naturalmente. Per stare al passo con questo cambiamento, le organizzazioni devono ripensare il modo in cui definiscono e misurano il successo. Questo inizia investendo nella gestione del cambiamento e nei programmi di aggiornamento delle competenze che preparano i dipendenti a lavorare efficacemente insieme all’AI. Richiede inoltre di ridefinire le metriche di produttività, andando oltre il completamento dei task per concentrarsi sul livello di collaborazione tra esseri umani e agenti AI. Il successo dovrebbe essere misurato in base all’efficienza con cui i team sfruttano l’AI per sbloccare nuovi livelli di insight e innovazione.

Costruire un’AI che crea fiducia

L’AI agentica non rappresenta solo un’altra fase, è una trasformazione. Ma come qualsiasi tecnologia trasformativa, il successo dipende da come viene costruito, governato e utilizzato.

L’AI agentica amplifica le capacità umane, accelera l’innovazione e aiuta ad affrontare sfide una volta considerate troppo complesse. Ma richiede anche un nuovo livello di diligenza, supervisione e riflessione etica.

Il futuro non riguarda solo la creazione di agenti più intelligenti, ma anche la costruzione di agenti responsabili.

The post Dall’AI assistiva all’AI agentica: rischi, responsabilità e la strada da percorrere appeared first on Âé¶¹Ô­´´ News Center Italy.

]]>
In che modo Âé¶¹Ô­´´ e Google Cloud stanno promuovendo l’AI alle aziende attraverso la collaborazione con agenti aperti, scelta dei modelli e intelligence multimodale /italy/2025/04/in-che-modo-sap-e-google-cloud-stanno-promuovendo-lai-alle-aziende-attraverso-la-collaborazione-con-agenti-aperti-scelta-dei-modelli-e-intelligence-multimodale/ Thu, 10 Apr 2025 15:11:36 +0000 /italy/?p=140116 L’AI è sempre più integrata in ogni ambito delle attività di un’azienda, potenziando l’automazione, la conoscenza e il processo decisionale in tutti i sistemi e...

The post In che modo Âé¶¹Ô­´´ e Google Cloud stanno promuovendo l’AI alle aziende attraverso la collaborazione con agenti aperti, scelta dei modelli e intelligence multimodale appeared first on Âé¶¹Ô­´´ News Center Italy.

]]>
L’AI è sempre più integrata in ogni ambito delle attività di un’azienda, potenziando l’automazione, la conoscenza e il processo decisionale in tutti i sistemi e flussi di lavoro. All’interno della partnership tra Âé¶¹Ô­´´ e Google Cloud, stiamo abilitando la prossima ondata di AI per il business contribuendo al nuovo protocollo di interoperabilità Agent2Agent (A2A), che getta le basi affinché gli agenti di intelligenza artificiale possano interagire e collaborare in modo sicuro tra le piattaforme.

Questo lavoro è completato da due ulteriori aree di progresso: in primo luogo, l’espansione dei modelli Google Gemini nell’hub di AI generativa di Âé¶¹Ô­´´ sulla Âé¶¹Ô­´´ Business Technology Platform (Âé¶¹Ô­´´ BTP); in secondo luogo, l’utilizzo delle funzionalità di intelligenza video e vocale di Google per supportare la generazione aumentata di recupero (RAG) multimodale per l’apprendimento basato su video e la scoperta delle conoscenze nei prodotti Âé¶¹Ô­´´.

Insieme, questi sforzi riflettono un impegno condiviso per fornire un’AI pronta per il business, aperta, flessibile e profondamente radicata nel contesto aziendale.

Riunire gli agenti dell’AI: gettare le basi per l’interoperabilità

Il futuro del lavoro è agentico. Le aziende stanno implementando sempre più agenti di AI che aiutano lo svolgimento di attività reali, risolvendo i problemi dei clienti, gestendo le approvazioni e collaborando tra le funzioni aziendali. Questo è il motivo per cui Âé¶¹Ô­´´ fornisce con Joule un’architettura agente collaborativa che supporta i flussi di lavoro agentici interfunzionali in Âé¶¹Ô­´´ Business Suite.

Ma affinché questi agenti forniscano valore reale, non possono operare all’interno di un’unica infrastruttura di fornitori. Devono essere in grado di collaborare su piattaforme diverse, scambiare informazioni in modo sicuro e coordinare le azioni attraverso flussi di lavoro complessi.  Questa necessità di interazione senza soluzione di continuità sottolinea perché il rappresenta un passo significativo oltre le semplici integrazioni API o gli strumenti avanzati.

Ecco perché Âé¶¹Ô­´´ si è unita a Google Cloud e ad altri leader come fondatore e dare il proprio contributo al nuovo protocollo A2A. Questo standard aperto è progettato per garantire che gli agenti di vendor diversi possano interagire, condividere il contesto e lavorare insieme, permettendo un’automazione senza soluzione di continuità tra i sistemi tradizionalmente disconnessi.

Considerate ad esempio uno scenario dove un’azienda si trova a risolvere una controversia con un cliente: un responsabile amministrativo riceve una richiesta di fatturazione tramite Gmail. Invece di passare da uno strumento all’altro, può rivolgersi a Joule direttamente dall’e-mail. Joule, in qualità di orchestratore agente, avvia un processo di risoluzione della controversia, coinvolgendo un altro agente Google che si connette a Google BigQuery, dove risiedono i dati di magazzino transazionali rilevanti. Insieme, gli agenti validano il problema, recuperano analisi e raccomandano una risoluzione, senza cambio manuale di sistema, riconciliazione dei dati o perdita di contesto.

Questo è il tipo di collaborazione multipiattaforma che il protocollo A2A consente: gli agenti AI lavorano insieme per accelerare i risultati di business, ridurre gli attriti e permettere alle persone di concentrarsi su compiti più strategici. Rafforza inoltre la visione di Âé¶¹Ô­´´ per Joule come agente orchestratore che lavora in tutti i flussi di lavoro di un’organizzazione: interoperabile, proattivo e profondamente connesso al contesto aziendale.

Ampliamento dell’accesso ai modelli Google nell’hub di AI generativa

Oltre all’interoperabilità degli agenti, Âé¶¹Ô­´´ sta promuovendo il suo impegno a favore dell’apertura e della flessibilità ampliando l’accesso ai modelli Google nell’AI generative hub, una funzionalità chiave della AI Foundation su Âé¶¹Ô­´´ BTP.

Attraverso l’AI generative hub, i clienti ottengono l’accesso di livello enterprise a un portafoglio di modelli  base, che include ora Google Gemini 2.0 Flash e Flash-lite, che aderiscono al supporto esistente per i modelli Gemini 1.5 già disponibili tramite l’hub.

Questa scelta estesa di modelli offre ai clienti la flessibilità di creare ed estendere soluzioni basate sull’AI utilizzando modelli ad alte prestazioni e a bassa latenza ottimizzati per i carichi di lavoro, pur rimanendo all’interno dell’ambiente protetto e ricco di contesto aziendale di Âé¶¹Ô­´´.

Combinando l’innovazione dei modelli di Google con la profonda comprensione dei processi di business da parte di Âé¶¹Ô­´´, consentiamo ai clienti di applicare l’AI generativa in modi non solo potenti, ma anche pratici, affidabili e pienamente allineati con il modo in cui operano le imprese.

La comprensione multimodale con Google Video Intelligence

Nell’ambito della continua collaborazione con Google Cloud, Âé¶¹Ô­´´ sta inoltre promuovendo la RAG multimodale, una funzionalità altamente richiesta dai clienti Âé¶¹Ô­´´, in particolare per i contenuti di apprendimento basati su video.

La RAG multimodale migliora il recupero e la generazione delle informazioni integrando molteplici modalità di dati – testo, immagini, audio e video – in un unico processo strutturato. Questo approccio arricchisce il sourcing delle conoscenze ed eleva il modo in cui gli utenti interagiscono con i materiali di formazione e supporto.

Per risolvere la complessità dell’estrazione di insight significativi dai contenuti video, Âé¶¹Ô­´´ sfrutta Google Video Intelligence per il rilevamento del testo su schermo tra i fotogrammi video e l’API Speech-to-Text di Google per una trascrizione accurata dell’audio. Durante il processo di indicizzazione, questi output vengono memorizzati con i timestamp corrispondenti, creando una base strutturata per recuperare i segmenti video rilevanti con precisione.

Mettendo a terra contenuti audio e visivi con metadati con allineamento temporale, Âé¶¹Ô­´´ consente agli utenti di cercare e recuperare momenti specifici e contestualmente rilevanti all’interno di un video, rendendo l’esperienza di apprendimento più intuitiva, accessibile e di grande impatto.

“Man mano che l’AI agentica si evolve, la gestione fluida dei dati multimodali – testo, voce, video e immagini – diventa fondamentale”, ha dichiarato Miku Jha, direttore di AI/ML e Generative AI di Google Cloud. “Questo introduce sfide significative per l’interoperabilità degli agenti. È quindi indispensabile un protocollo aperto come A2A, che fornisca il quadro e la flessibilità necessari agli agenti per comunicare e collaborare efficacemente attraverso queste diverse modalità. La multimodalità non è semplicemente una capacità, è un requisito fondamentale che guida la prossima generazione di sistemi agentici interconnessi.â€

Questo è un altro esempio di come Âé¶¹Ô­´´ sta integrando le funzionalità AI di Google in scenari rilevanti per il business, aiutando i clienti a sbloccare più valore dai loro contenuti non strutturati e ad elevare il modo in cui le conoscenze vengono fornite in tutta l’azienda.

Visione condivisa per l’AI aziendale

Questi sforzi riflettono un più ampio allineamento strategico tra Âé¶¹Ô­´´ e Google Cloud: una convinzione condivisa nell’AI che è aperta, componibile e basata su un contesto aziendale reale. Che si tratti di definire standard emergenti per la collaborazione con gli agenti, di offrire la scelta attraverso modelli best-in-class o di rendere fruibili contenuti non strutturati, ci concentriamo sull’aiutare i nostri clienti a innovare con sicurezza, oggi e nel futuro.

Per saperne di più su come Âé¶¹Ô­´´ e Google Cloud stanno plasmando il futuro dell’AI aziendale, visita .

The post In che modo Âé¶¹Ô­´´ e Google Cloud stanno promuovendo l’AI alle aziende attraverso la collaborazione con agenti aperti, scelta dei modelli e intelligence multimodale appeared first on Âé¶¹Ô­´´ News Center Italy.

]]>
I cinque temi fondamentali dell’AI nel 2025: dai sistemi multi-agente all’intelligenza collaborativa /italy/2025/02/i-cinque-temi-fondamentali-dellai-nel-2025-dai-sistemi-multi-agente-allintelligenza-collaborativa/ Fri, 21 Feb 2025 10:11:05 +0000 /italy/?p=140067 L’intelligenza artificiale (AI) sta accelerando a un ritmo sorprendente: dalla creazione di agenti AI all’interazione con la tecnologia per conversare in modo naturale, le tecnologie...

The post I cinque temi fondamentali dell’AI nel 2025: dai sistemi multi-agente all’intelligenza collaborativa appeared first on Âé¶¹Ô­´´ News Center Italy.

]]>
L’intelligenza artificiale (AI) sta accelerando a un ritmo sorprendente: dalla creazione di agenti AI all’interazione con la tecnologia per conversare in modo naturale, le tecnologie AI sono pronte a trasformare il nostro modo di lavorare.

Ma cosa ci aspetta esattamente? Sono cinque i temi chiave per l’AI nel 2025 che comportano nuove sfide per le aziende, ma anche un elevato potenziale per ridefinire ciò che è possibile.

  1. AI agentica: addio all’agent washing, benvenuto ai sistemi multi-agente

Quando parliamo di agenti AI, siamo agli albori. Mentre molti fornitori di software stanno rilasciando ed etichettando i primi “agenti AI†sulla base di semplici ricerche conversazionali di documenti, all’orizzonte si profilano agenti AI avanzati in grado di pianificare, ragionare, utilizzare strumenti, collaborare con le persone e con altri agenti e riflettere ripetutamente sui progressi compiuti fino al raggiungimento dell’obiettivo.

A breve, gli utenti interagiranno con un copilot per svolgere i loro compiti, che distribuirà la richiesta e coordinerà i sistemi di più agenti AI esperti per completare un compito complesso. I futuri agenti di intelligenza artificiale, o sistemi multiagente (MAS), possono collaborare per capire le esigenze dell’utente, definire il contesto e strutturare il problema per poi interagire con gli agenti di intelligenza artificiale esperti in un dominio specifico. Questi agenti AI esperti eseguono sottocompiti specifici che insieme danno risposta al problema articolato. In futuro, gli utenti non avranno nemmeno bisogno di attivare un’azione. Gli agenti di intelligenza artificiale risponderanno in modo proattivo agli eventi di business, come ad esempio richieste dei clienti, interruzioni della supply chain o aumenti della domanda. Prepareranno inoltre in modo automatico un flusso decisionale, prima di chiedere un feedback all’utente.

Nei prossimi cinque anni, gli agenti di intelligenza artificiale semplificheranno sensibilmente i flussi di lavoro, anche in aree che sono state resistenti all’automazione, come la gestione delle eccezioni nel servizio clienti, o le attività di programmazione specifiche come la codifica o il debug del software. Gli agenti di intelligenza artificiale saranno flessibili e potranno pianificare, fallire e provare qualcos’altro o autocorreggersi in base al ragionamento. Gli agenti di intelligenza artificiale gestiranno e completeranno attività di routine e ripetitive end-to-end con la stessa efficacia, spesso anche maggiore, degli esseri umani, con conseguente aumento della produttività e riduzione dei costi. Gli agenti saranno più adattabili e robusti rispetto all’automazione robotica dei processi (RPA) convenzionale per le attività di lunga durata e di grande portata. Ciò significa individuare il risultato migliore tra i molti possibili esiti, cosa quasi impossibile da codificare in un algoritmo RPA con i metodi di automazione classici.

L’adozione dell’AI modificherà anche le dinamiche della forza lavoro, con l’evoluzione dei ruoli delle persone che si concentreranno sull’anticipazione di scenari insoliti, la gestione delle ambiguità, l’analisi del comportamento umano, le decisioni strategiche e la guida dell’innovazione vera e propria, integrata, non sostituita, dalle capacità dell’AI.

In breve, l’AI si occuperà di compiti banali e ad alto volume, mentre aumenterà il valore del giudizio umano, della creatività e della qualità dei risultati.

  1. Modelli: senza contesto, nessun valore

I modelli linguistici di grandi dimensioni (LLM) continueranno a diventare una commodity per le attività di AI generativa, una tendenza che è già iniziata. I modelli linguistici di grandi dimensioni si basano su un bacino sempre più ampio di dati pubblici raccolti da Internet. Questa situazione è destinata a crescere e le aziende devono imparare ad adattare i loro modelli a fonti di dati uniche e ricche di contenuti. I miglioramenti dei modelli in futuro non deriveranno da una maggiore quantità di dati, ma da una migliore qualità dei dati, da un maggiore contesto e dal perfezionamento delle tecniche sottostanti.

Le imprese dovranno dedicare più tempo all’innovazione per creare modelli migliori attraverso la messa a punto e l’adattamento dei modelli, anziché limitarsi ad addestrare modelli sempre più grandi. Le tecniche di AI neurosimbolica, in particolare i knowledge graph, vedranno una rinascita perchè possono fornire sia obiettivi di apprendimento per i modelli di base che il contesto per migliorare significativamente le prestazioni dell’AI generativa, riducendo al contempo le allucinazioni.

Vedremo anche una maggiore varietà di modelli che rispondono a scopi diversi. Prendiamo ad esempio le reti neurali informate dalla fisica (Physics-Informed Neural Networks, PINN), che generano risultati basati su previsioni fondate a loro volta sulla realtà fisica o sulla robotica. Le PINN sono destinate ad acquisire maggiore importanza nel mercato del lavoro perché consentiranno ai robot autonomi di navigare ed eseguire compiti nel mondo reale, dai magazzini agli impianti di produzione, ai modelli addestrati su dati tabellari e strutturati, come il Âé¶¹Ô­´´ Foundation Model, e potranno gestire compiti che gli LLM non sono in grado di svolgere bene, come le previsioni di valori numerici.

I modelli diventeranno sempre più multimodali, il che significa che un sistema di AI è in grado di elaborare informazioni provenienti da diversi tipi di input. Le applicazioni di AI si evolveranno in soluzioni con modalità “any-to-anyâ€, in grado di comprendere, elaborare e ragionare su testi, voci, immagini, video e dati di sensori all’interno di un unico modello. Inoltre, i LLM più piccoli e specializzati, con tecniche di perfezionamento scalabili e la capacità di lavorare su qualsiasi dispositivo, diventeranno sempre più comuni, una tendenza che in futuro potrebbe portare a modelli iper-personalizzati per le organizzazioni o persino per gli individui.

Le imprese si orienteranno verso strategie che utilizzano più modelli di base (da non confondere con le capacità multimodali in un unico modello, descritte in precedenza), sfruttando una serie diversificata di modelli e tecniche di intelligenza artificiale adattati a casi d’uso specifici. Ciò è sostenuto dalla tendenza a perfezionare piccole porzioni di modelli, che richiede meno risorse e molti meno dati, con conseguente piena flessibilità dei modelli e la possibilità per le aziende di estrarre più valore dai loro dati unici e ottenere un vantaggio competitivo.

I fornitori di software per il mondo del business offriranno o amplieranno piattaforme e marketplace integrati di modelli di AI che supportano l’implementazione, la gestione e l’aggiornamento dei modelli senza soluzione di continuità. Il benchmarking e la riduzione dei costi per il cambio di modello aiuteranno a distribuire gli stessi casi d’uso in ambienti eterogenei. Contesto uguale valore. La tecnologia knowledge graph esiste da 40 anni e ora sta vivendo una rinascita perché è in grado di superare le principali sfide dell’LLM, come la comprensione di formati complessi, gerarchie e relazioni tra i dati dell’azienda. I knowledge graph spiegano i dati e le relazioni tra le entità, potenziando in modo importante le capacità dei LLM. Il prossimo passo in questo ambito saranno i graph model di grandi dimensioni, che consentiranno ulteriori progressi nell’AI generativa.

La conoscenza implicita è potere, e rendere la conoscenza esplicita a tutti è un superpotere.

 

  1. Adozione: dal buzz al business

Mentre il 2024 è stato l’anno dell’introduzione dei casi d’uso dell’AI e del suo valore all’interno delle organizzazioni e per i singoli individui, il 2025 vedrà un’adozione senza precedenti dell’AI soprattutto da parte delle aziende. Si capirà meglio quando e come utilizzare l’AI e la tecnologia maturerà al punto da poter affrontare problemi critici come la gestione delle complessità per una multinazionale. Molte imprese faranno anche esperienza pratica, affrontando per la prima volta questioni come la gestione legale e la privacy dei dati specifici per l’AI, costruendo le basi per l’applicazione della tecnologia nei processi di business.

Da un punto di vista tecnologico, il 2024 ha visto l’AI progredire sensibilmente. Quest’anno le aziende lavoreranno per rendere questi progressi ancora più significativi attraverso una perfetta integrazione dei dati, migliorando l’accuratezza dei risultati alimentati dall’AI e aumentandone l’adozione. Infine, nel 2025 potremmo assistere a uno spostamento del modello di business del software dallo sviluppo di caratteristiche e funzioni statiche a un modello di outcome-as-a-service, incentrato sul raggiungimento degli obiettivi del processo.

  1. Esperienza utente: l’intelligenza artificiale sta diventando la nuova interfaccia utente

La prossima frontiera dell’AI consiste nell’unificare senza soluzione di continuità persone, dati e processi per amplificare i risultati aziendali. Nel 2025 assisteremo a una maggiore adozione dell’AI, man mano che le persone scopriranno i vantaggi potenziati dal suo utilizzo.

Ciò significa stravolgere l’esperienza tradizionale dell’utente, passando da interazioni guidate dal sistema a conversazioni basate sull’obiettivo e guidate dalle persone, con l’AI che agisce in background. I copiloti dell’AI diventeranno la nuova interfaccia utente per interagire con il sistema, rendendo il software più accessibile e semplice. L’intelligenza artificiale non si limiterà a un’applicazione, ma un giorno potrebbe addirittura sostituirla. Con l’AI, frontend, backend, browser e app si confondono. È come dare all’AI “braccia, gambe e occhiâ€. Mentre i power user continueranno ad avere interfacce singole ed esperte, la maggior parte degli utenti richiederà flessibilità attraverso molteplici modelli di accesso. Allo stesso tempo, saranno accettati tempi di inferenza più lunghi per ricevere risposte di alta qualità a problemi complessi, precedentemente irrisolvibili, e per azioni in domini che richiedono analisi e ricerche approfondite. In definitiva, gli utenti riconosceranno il compromesso tra latenza e complessità dei compiti gestiti dall’AI.

È importante notare che le organizzazioni non considereranno più l’AI come un insieme di strumenti di produttività, ma inizieranno a reimmaginare la loro forza lavoro come una rete di intelligenza collaborativa con agenti di AI e persone che lavorano per accelerare l’innovazione. Ad esempio, la combinazione delle competenze umane per il pensiero strategico con i punti di forza dell’AI per l’analisi su larga scala e il riconoscimento dei modelli creerà nuovi vantaggi competitivi per le aziende che sapranno orchestrare efficacemente queste reti di intelligenza ibrida per guidare scoperte rivoluzionarie e identificare nuove opportunità di mercato. Il prossimo anno segnerà anche le prime fasi di un cambiamento significativo nel modo in cui gli esseri umani e l’AI lavorano insieme: gli agenti evolveranno il loro ruolo diventando partner del flusso di lavoro, compiendo i primi passi verso la navigazione indipendente negli ambienti software e l’automazione delle attività di routine, dall’analisi dei dati e la generazione di report al coordinamento dei programmi al test del software. Ciò darà inizio a un percorso verso la trasformazione dei processi e dei modelli di lavoro, dove le organizzazioni lungimiranti svilupperanno nuovi ruoli, metriche e approcci formativi per una collaborazione efficace tra uomo e AI.

  1. Regolamentazione: innovare, poi regolamentare

Oggi, i governi di tutto il mondo sono impegnati a tenere il passo con i rapidi progressi della tecnologia dell’AI e a sviluppare solidi quadri normativi che stabiliscano i giusti limiti alI’AI senza compromettere l’innovazione. Il panorama normativo diventerà ancora più frammentato: l’Osservatorio sulle politiche dell’AI dell’OCSE sta monitorando centinaia di normative sull’intelligenza artificiale in tutto il mondo. Ciò richiede la valutazione della conformità dei modelli e dell’interpretazione tecnica dei vari quadri normativi.

Nel 2025, la discussione si sposterà da ciò che cerchiamo di regolamentare da un punto di vista tecnico a come innoviamo e a ciò che consideriamo fondamentalmente umano. Questa discussione eleverà il ruolo delle persone, contribuirà a dare una prospettiva molto più positiva e aiuterà a delineare una visione più chiara nel lungo termine di come vogliamo che le persone e l’AI vivano e lavorino insieme.

In questo contesto, continuerà a essere fondamentale per le aziende che sviluppano e distribuiscono tecnologie di AI aderire a principi responsabili in materia di sicurezza, protezione ed etica.

Questi sono solo alcuni di quelli che, ne siamo certi, saranno i molti ed entusiasmanti progressi dell’AI nel 2025. Complessivamente, l’aspetto più importante sarà quello di rendere più significative le tecnologie innovative esistenti. Vedremo l’AI integrata in modo molto più profondo e quasi invisibile nelle applicazioni consumer e business, con i fornitori di tecnologia e le aziende in grado di incorporare nell’AI i loro specifici contesti e dati senza soluzione di continuità.

Per trarre pieno vantaggio dall’innovazione e dall’AI, tuttavia, le imprese dovranno sfruttare una moderna business suite in cloud con accesso unificato ai dati e ai modelli di dati armonizzati per superare i classici silos. Questo aumenterà drasticamente l’accuratezza e l’importanza dei risultati dell’AI, favorendone la rapida adozione in tutta l’organizzazione.

Non vediamo l’ora di vedere cosa ci riserverà il futuro.

The post I cinque temi fondamentali dell’AI nel 2025: dai sistemi multi-agente all’intelligenza collaborativa appeared first on Âé¶¹Ô­´´ News Center Italy.

]]>