Api platforms, l’italiana Kong raggiunge i 2 miliardi di market cap

Api platforms, l’italiana Kong raggiunge i 2 miliardi di market cap

Kong, azienda specializzata in piattaforme Api, ha recentemente raggiunto una valutazione di mercato di 2 miliardi di dollari dopo aver concluso con successo un round di finanziamento Serie E da 175 milioni di dollari. Fondata nel 2017 dagli italiani Marco Palladino e Augusto Marietti, Kong è diventata un punto di riferimento nel settore delle infrastrutture Api globali, grazie alla sua capacità di fornire soluzioni scalabili, sicure e resilienti per la gestione delle Api.

Superati i 100 mln di dollari di ricavi

Il recente finanziamento, guidato da Tiger Global e Balderton, si inserisce in un contesto di forte crescita per Kong, che ha superato i 100 milioni di dollari in ricavi annuali ricorrenti e ha raggiunto la redditività. L’investimento consentirà all’azienda di espandere ulteriormente la sua presenza internazionale, con un focus particolare sull’Europa, l’Asia e i mercati emergenti, rispondendo alla crescente domanda globale di soluzioni Api avanzate.

Intanto Rana Yared, General Partner di Balderton, è entrata a far parte del consiglio di amministrazione di Kong, sottolineando l’importanza del suo contributo strategico nella fase di espansione dell’azienda.

Oltre 700 aziende Enterprise fra i clienti

Kong offre una piattaforma completa per la gestione delle Api, comprendente un service mesh e il controllo d’ingresso tramite il servizio cloud-based “Konnect”. Inoltre, con i suoi plugin AI gratuiti, Kong trasforma la sua gateway in un’infrastruttura AI nativa del cloud completamente scalabile.

La società annovera tra i suoi clienti oltre 700 aziende di livello enterprise, tra cui Gsk, PayPal e la Borsa di New York (Nyse), e continua a vedere una forte domanda per le sue soluzioni, particolarmente adatte a supportare ambienti AI complessi e applicazioni basate su microservizi. Kong si distingue nel mercato per la sua capacità di gestire con efficienza la sicurezza, la visibilità e il controllo tra i team di sviluppo e le varie applicazioni AI.

Venti trilioni di richieste Api processate al mese

L’inizio di Kong è stato quasi “in sordina”, con Palladino e Marietti che hanno portato la loro startup dall’Italia agli Stati Uniti, riuscendo a ottenere un investimento iniziale in tempi record. Oggi, con più di sette milioni di istanze del gateway Kong attive e oltre 20 trilioni di richieste Api processate mensilmente, l’azienda è pronta a continuare la sua espansione su scala globale, supportata da un team di talento e un solido piano di innovazione per il futuro.

Source

La fibra di Open Fiber in oltre 5.000 comuni ma le attivazioni non decollano

La fibra di Open Fiber in oltre 5.000 comuni ma le attivazioni non decollano

Esiste in Italia un’autostrada digitale a tante corsie che consente una velocità di percorrenza estremamente elevata, ma ci sono pochissimi veicoli a percorrerla. Questo, in sintesi, il bilancio sull’uso dell’infrastruttura in fibra ottica Ftth emerso dal confronto tra Open Fiber, il principale operatore Ftth in Italia, e gli amministratori locali all’assemblea Anci che si è appena conclusa a Torino. Un’occasione per fare un bilancio del reale livello di digitalizzazione dei territori italiani, costituito in gran parte da borghi piccoli e periferici.

Ftth, infrastruttura diffusa ma sottoutilizzata    

La fibra ottica Ftth di Open Fiber ha raggiunto più di 5mila comuni nelle aree bianche, le più remote, nell’ambito del piano Bul che è al 92% di sviluppo dell’infrastruttura. In moltissimi comuni, tuttavia, c’è un utilizzo della rete, che nel gergo tecnico si chiama take up, molto basso.

L’Italia oggi ha quasi raggiunto la media europea di disponibilità dell’infrastruttura ultraveloce (60% contro il 64% Ue) ma il livello di adozione non cresce a livelli adeguati.

E se nelle grandi città c’è un tasso di riempimento molto soddisfacente, nei borghi delle aree bianche, con una geografia che varia a seconda dei territori, il tasso si attesta intorno a una media del 7%. Nel Mezzogiorno il tasso di utilizzo medio scende pericolosamente fino a sfiorare il 3%.

Per Andrea Falessi, direttore delle Relazioni esterne di Open Fiber, “c’è dunque un tema di economicità e sostenibilità dell’investimento sulla fibra ottica Ftth, che è un investimento pubblico, e c’è un tema di mancata opportunità per i territori. Abbiamo sotto i piedi migliaia di chilometri di fibra ottica che non vengono opportunamente utilizzati. E questa è una sfida che va colta a partire dalle amministrazioni locali che possono dare un grande contributo al superamento del digital divide”.

A fornire un quadro della situazione sul territorio è stato Mariano Calisse, sindaco del Comune di Borgorose e Responsabile Anci per Piccoli Comuni della Regione Lazio. “Quando qualche anno fa, si iniziò a parlare dell’investimento che Open Fiber avrebbe fatto nel mio paese, a costo zero per la nostra amministrazione, mi sembrò subito un’occasione imperdibile. La posta in gioco per Borgorose, che è un piccolo centro dell’Appennino laziale, era garantire un futuro ai residenti delle aree interne, lontani dalle grandi città, fermare lo spopolamento, agevolare il lavoro da remoto, valorizzare i siti turistici. Dopo l’avvento della fibra Ftth di Open Fiber, per esempio, un’azienda è riuscita a insediarsi nel nostro territorio e a dare lavoro a oltre centopersone, quindi famiglie, che vivono lì. La provincia di Rieti è costituita da 71 comuni di cui 68 sotto i 5mila abitanti e sono tutti caratterizzati da luoghi interessanti dal punto di vista turistico e che potranno essere ulteriormente valorizzati grazie alla connessione a banda ultra larga”. 

A portare l’esperienza di un altro comune, Pitigliano, stavolta in Toscana, è stato Marco Ceppodomo, consigliere delegato alla digitalizzazione del piccolo paese. “Da circa un anno è in attuazione un progetto con Open Fiber per la digitalizzazione dei servizi comunali da erogare grazie alla fibra Ftth. A partire dalla pubblica illuminazione, gestita tramite un…

Source

Intelligenza artificiale, Amazon rilancia su Anthropic: sul piatto altri 4 miliardi

Intelligenza artificiale, Amazon rilancia su Anthropic: sul piatto altri 4 miliardi

Amazon rilancia su Anthropic. L’azienda ha annunciato un investimento di ulteriori 4 miliardi di dollari nella startup di intelligenza artificiale, fondata da ex dirigenti di OpenAI, che ha creato il modello di chatbot Claude, rivale di ChatGpt e Gemini.

Il nuovo finanziamento porta l’investimento totale a 8 miliardi di dollari.

In campo anche Amazon Web Services

A valle dell’investimento Aws diventerà il “partner principale per cloud e formazione” di Anthropic, come spiegato in secondo un blogpost aziendale: in pratica Anthropic utilizzerà i chip Aws Trainium e Inferentia per addestrare i suoi modelli di intelligenza artificiale.

Gli investimenti

A marzo l’investimento da 2,75 miliardi di dollari di Amazon in Anthropic è stato il più grande investimento esterno fatto dal colosso dell’e-commerce azienda nei suoi tre decenni di storia. La prima tranche di finanziamento risale a settembre 2023: sul piatto c’erano 1,25 miliardi.

La funzionalità Computer Use

La notizia dell’ulteriore investimento di Amazon arriva un mese dopo l’annuncio della startup di avere realizzato agenti di intelligenza artificiale in grado di utilizzare un computer per completare attività complesse, come farebbe un essere umano.

La nuova funzionalità Computer Use di Anthropic consente di interpretare ciò che è sullo schermo di un computer, selezionare pulsanti, inserire testo, navigare in siti Web ed eseguire attività su qualsiasi browser Internet in tempo reale.

Amazon ha avuto accesso anticipato allo strumento.

Claude Enterprise

A settembre, Anthropic ha lanciato Claude Enterprise, progettato per le aziende che desiderano integrare l’intelligenza artificiale di Anthropic. A giugno invece ha debutatto sul mercato il modello di intelligenza artificiale più potente, Claude 3.5 Sonnet, e a maggio è stato svelato il piano Team destinato alle pmi.

Source

Chip, Nvidia batte ogni record: vale più di 3.600 miliardi di dollari

Chip, Nvidia batte ogni record: vale più di 3.600 miliardi di dollari

Mentre Wall Street vede estendersi il rally innescato dal ritorno di Donald Trump alla Casa Bianca, le azioni di Nvidia toccano il loro record: il chipmaker diventa così la prima azienda nella storia a superare un valore di borsa di 3,6 trilioni di dollari.

Le azioni della società, che domina nel settore dell‘intelligenza artificiale, sono salite del 2,2%, sostenute in particolare dall’ampio ottimismo degli investitori per i tagli alle tasse e la riduzione delle normative dopo la vittoria elettorale del candidato repubblicano. L’indice tecnologico S&P 500 è intanto salito di oltre il 4% nelle due sessioni successive alla vittoria di Trump.

Tripicato il valore del titolo Nvidia nel 2024

Nvidia è la principale vincitrice del mercato azionario statunitense nella gara tra Microsoft, Alphabet e altre big per costruire la loro capacità di calcolo dell’intelligenza artificiale e dominare la tecnologia emergente. Il titolo della società progettista di chip della Silicon Valley è salito del 12% a novembre e il suo valore è triplicato sino ad oggi nel 2024.

Secondo gli analisti, Nvidia aumenterà le sue entrate trimestrali di oltre l’80%, raggiungendo i 32,9 miliardi di dollari quando presenterà i suoi risultati il 20 novembre. A giugno, Nvidia è inoltre diventata per breve tempo l’azienda di maggior valore al mondo prima di essere superata da Microsoft e Apple. Le capitalizzazioni di mercato del trio tecnologico sono state a pari merito per diversi mesi.

Intanto Taiwan Semiconductor Manufacturing Co. (Tsmc) ha comunicato a diversi clienti cinesi che sospenderà la produzione di chip per l’intelligenza artificiale e il calcolo ad alte prestazioni loro destinata, in un momento in cui il produttore di semiconduttori taiwanese intensifica gli sforzi per garantire il rispetto dei controlli sulle esportazioni imposti dagli Stati Uniti. I clienti cinesi coinvolti sono quelli che lavorano su applicazioni di calcolo ad alte prestazioni, unità di elaborazione grafica (Gpu) e applicazioni legate al calcolo dell’intelligenza artificiale, utilizzando tecnologie di produzione di chip a 7 nanometri o superiori, ma non quelli che producono chip per dispositivi mobili, comunicazione e connettività con quella tecnologia.

L’impatto complessivo sui ricavi di Tsmc sarà minimo, hanno aggiunto le fonti. L’azienda ha avviato una revisione dei clienti che utilizzano tecnologie a 7 nm o superiori dopo aver scoperto tentativi sospetti da parte di clienti cinesi di eludere i controlli sulle esportazioni degli Stati Uniti relativi al produttore di dispositivi di telecomunicazioni cinese Huawei Technologies. Tsmc ha dichiarato di aver notificato proattivamente il dipartimento del Commercio degli Stati Uniti riguardo ai clienti in questione.

La giapponese Kioxia verso l’Ipo

Infine Kioxia, azienda giapponese dei semiconduttori sostenuta da Bain Capital, dovrebbe presentare a breve la documentazione necessaria a sondare gli investitori per un’offerta pubblica iniziale (Ipo) nel mese di dicembre. Bain aveva annullato i piani per una Ipo di Kioxia a ottobre, dopo che gli investitori avevano spinto la società di private equity statunitense a ridurre quasi della metà la valutazione dell’azienda dai circa 9,79 miliardi di dollari obiettivo. Kioxia sarebbe la prima azienda a utilizzare le nuove normative che consentono alle…

Source

Enea, a Portici un super-pc targato Lenovo per la ricerca sulle energie pulite

Enea, a Portici un super-pc targato Lenovo per la ricerca sulle energie pulite

Accelerare le attività di ricerca sulle energie pulite, in particolare sulla fusione nucleare. E’ questo l’obiettivo che ha portato Enea, Agenzia nazionale per le nuove tecnologie, l’energia e o sviluppo economico sostenibile, a scegliere Lenovo per l’installazione di un sistema Hpc presso il polo di Portici, in provincia di Napoli.

Le caratteristiche del sistema

Il nuovo sistema di High performance computing – spiega Lenovo in una nota – sarà composto da 758 nodi con 2 Cpu Intel Xeon Platinum 8592+ e consentirà di portare le capacità computazionali di Cresco, il Centro Computazionale di Ricerca sui Sistemi Complessi ospitato nel Centro di Ricerche di Portici, dagli attuali 1.01 a oltre 6.5 Petaflops, “collocandolo ai primissimi posti nel panorama nazionale in termini di potenza di elaborazione”.

L’impegno per la sostenibilità

Il nuovo sistema è stato scelto, oltre che per la potenzia computazionale che garantisce, anche per il fatto che garantisce una migliore efficienza energetica rispetto al passato. “L’utilizzo della tecnologia ad acqua Lenovo Neptune Direct Water-Cooling, infatti – spiega l’azienda – è in grado di catturare fino al 98% del calore prodotto dal supercomputer e il raffreddamento a liquido consente di risparmiare l’energia usata per le ventole. Grazie alla maggior efficienza, la temperatura delle Cpu non raggiunge valori critici, evitando la riduzione della frequenza massima dei core”.

L’architettura Ict di Enea

L’infrastruttura Ict di Enea è composta da sei poli: Frascati, Portici, Bologna, Casaccia, Trisaia e Brindisi, ognuno dotato di infrastrutture di calcolo e visualizzazione 3D e di competenze specialistiche. I centri di calcolo Cresco, in questo contesto, sono in grado di fornire servizi computazionali avanzati per Enea e i suoi partner pubblici e privati nel campo delle applicazioni energetiche, dei codici nucleari e della fusione, dei modelli climatologici ed ambientali, della struttura della materia, della modellistica per reti ed infrastrutture critiche, della remotizzazione di grandi strumenti e della bioinformatica.

AI e calcolo ad alte prestazioni

“Oggi il calcolo ad alte prestazioni e l’intelligenza artificiale aprono nuovi orizzonti in aree cruciali per la nostra società come lo sviluppo economico sostenibile, il clima, l’innovazione del settore energetico e la medicina, ambiti di ricerca che vedono Enea in prima linea – spiega Alessandro de Bartolo, Ad e Country General Manager Infrastructure Solutions Group di Lenovo in Italia – Ecco perché Lenovo è orgogliosa di affiancare un centro di eccellenza come Enea in queste sfide globali con le nostre tecnologie, la nostra esperienza e la nostra capacità di innovare”.

Una risposta alle nuove esigenze dei ricercatori

“Il nuovo supercalcolatore Cresco8 costituisce un importante avanzamento tecnologico per Enea, incrementando le risorse di calcolo con sistemi all’avanguardia dal punto di vista del calcolo parallelo, che garantiscono al tempo stesso alti livelli di efficienza energetica”, osserva Giovanni Ponti, responsabile della divisione Ict dell’Enea del dipartimento Tecnologie energetiche e fonti rinnovabili – Cresco8 permetterà ai ricercatori Enea e a tutti i suoi partner di ricerca di poter eseguire codici numerici, modelli computazionali, simulazioni e algoritmi di intelligenza artificiale in un cluster di calcolo parallelo ad alte prestazioni di…

Source

Intelligenza artificiale, nelle aziende italiane adozione sotto la media Ue

Intelligenza artificiale, nelle aziende italiane adozione sotto la media Ue

Il mercato dell’intelligenza artificiale in Italia oggi ha un valore approssimabile attorno agli 0,8 miliardi di euro, ma sarà destinato a crescere fino a toccare i 2,5 miliardi nel 2027. E’ quanto emerge dal Global Technology Report 2024 di Bain & Company, che però evidenza anche le criticità: “L’adozione dell’IA nelle imprese italiane è ancora inferiore rispetto alla media europea – spiega Mauro Colopi, partner di Bain & Company e responsabile italiano Tmt – solo il 7% delle Pmi e il 24% delle grandi imprese italiane hanno implementato soluzioni di AI, contro una media UE rispettivamente del 9% e del 30%. Questo evidenzia la necessità di iniziative strategiche per accelerare l’adozione dell’AI, ma indica anche un significativo potenziale di crescita per le imprese italiane”.

Rischi e opportunità per l’Italia

“L’Italia – prosegue Colopi – ha un posizionamento solido in settori strategici come robotica industriale, manifattura e l’aerospazio, dove l’adozione dell’AI potrebbe incrementare il vantaggio competitivo. Tuttavia, un ritardo nell’adozione dell’IA potrebbe compromettere la competitività del Paese nei prossimi anni. Le aziende italiane devono quindi sviluppare una roadmap chiara per implementare l’AI – afferma – che includa la trasformazione dei processi aziendali e lo sviluppo di competenze specifiche”.

“Inoltre, Il settore dei data center rappresenta un’opportunità importante per l’Italia, che sta attirando l’interesse di investitori e operatori, con una prevista crescita del 18%-20% annuo della capacità dei data center entro il 2030 – conclude Colopi – L’AI, offre un’opportunità unica al Paese per rafforzare la propria competitività, sfruttando tecnologie emergenti e costruendo un ecosistema di filiera innovativo e sostenibile”.

I dati su scala globale

Guardando al panorama globale, lo studio di Bai & Company prevede che il mercato globale dell’hardware e software legato all’intelligenza artificiale sia destinato a crescere tra il 40% e il 55% all’anno, raggiungendo un valore compreso tra i 780 e i 990 miliardi di dollari entro il 2027. Tra gli ambiti più promettenti l’espansione della domanda di computing, associata allo scalare dei modelli di AI, la crescita accelerata delle infrastrutture dei data center e la ricerca di una maggiore sovranità delle piattaforme di AI.

Il ruolo dell’AI generativa

“L’AI generativa sta guidando l’attuale ondata di innovazione – argomenta Colopi – Tuttavia, per generare valore su vasta scala, le aziende dovranno trasformare profondamente i loro processi dove l’accento sull’evoluzione a scala diventa imperativo del prossimo triennio. Adottare una strategia pervasiva dell’Intelligenza Artificiale nelle diverse aree di operatività aziendale sarà cruciale per rimanere competitivi in un contesto in continua evoluzione”.

La crescita dei carichi computazionali

Secondo lo studio, i carichi computazionali legati all’AI cresceranno del 25%-35% all’anno fino al 2027, con un conseguente incremento della domanda di potenza di calcolo, che spingerà i data center a evolvere verso dimensioni di oltre un gigawatt. I costi di costruzione di questi grandi data center – attualmente compresi tra 1 e 4 miliardi di dollari – potrebbero raggiungere i 25 miliardi nei prossimi cinque anni.

I rischi per le forniture di chip

La crescente domanda di unità di elaborazione grafica potrebbe comportare un aumento del 30% della richiesta di componenti…

Source