venerdì 20 dicembre 2019

Supremazia quantistica di Google: Mito o realtà?

di Fausto Intilla
------------------------------
Quando pensiamo ai futuri computer quantistici, il primo luogo comune da sfatare, è che essi andranno a sostituire praticamente tutti i computer classici. Ebbene ciò non è affatto vero. In primis, occorre ricordare che non è sempre possibile trovare un algoritmo quantistico, più efficiente di un algoritmo classico per qualsiasi tipo di problema. Dunque i computer quantistici, il giorno in cui saranno alla portata di milioni di persone, verranno utilizzati solo per particolari classi di problemi.
Il primo modello di computazione quantistica risale al 1980, ad opera di Paul Benioff. Egli infatti elaborò uno schema, in versione quantistica, di macchina di Turing. In sostanza si trattava di una macchina di Turing, che poteva funzionare solo utilizzando le regole e i principi della meccanica quantistica (senza entrare in conflitto con gli assiomi di Church-Turing). Due anni dopo, nel 1982, R. Feynman intuisce qualcosa di fondamentale in seno alla computazione quantistica: siccome i sistemi quantistici prendono forma in uno spazio astratto, che è lo spazio di Hilbert (che accresce esponenzialmente la dimensione dello spazio con il numero di sottosistemi/componenti fisici del sistema considerato; 2^N, per N-sistemi a due livelli), è molto difficile fare una simulazione/computazione classica estesa di questi sistemi e ovviamente risulta impossibile, nel limite di N molto grande; dunque per esplorare questi sistemi in profondità, è assolutamente necessario disporre di un calcolatore quantistico (ovvero, per dirla con Feynman, di un “simulatore quantistico universale”). Tre anni dopo le intuizioni di Feynman, nel 1985, David Deutsch mostra come realizzare una computazione universale, utilizzando un modello a circuito con porte logiche reversibili (del tutto analogo al modello del circuito booleano classico, ma con la particolarità appunto della reversibilità di tutte le porte logiche; come richiesto dalle operazioni quantistiche).
I primi importanti algoritmi, vennero tuttavia ideati solo una decina di anni dopo. Risale infatti al 1994, un algoritmo fondamentale per la fattorizzazione di grandi numeri in fattori primi, ad opera di Peter Shor. L’enorme importanza di questo algoritmo (denominato semplicemente: algoritmo di Shor), sta nel fatto che rispetto ai più noti e migliori algoritmi classici attualmente conosciuti, si avvale di un vantaggio di speedup esponenziale; dunque un vantaggio enorme, in termini di velocità. Tale algoritmo, tuttavia, non dimostra affatto che non possano esistere algoritmi classici che siano polinomiali, nel tempo di calcolo in funzione della dimensione dell’input. Finora comunque, nessuno è mai riuscito a trovare un algoritmo classico che non sia esponenzialmente soppresso rispetto all’algoritmo di Shor.
Circa due anni dopo, nel 1996, Lov Grover formula un altro importante algoritmo, che prenderà il nome di: algoritmo di ricerca (quantistico) di Grover. Si tratta di un algoritmo che permette in sostanza di trovare il famoso “ago in un pagliaio”; poiché è in grado di cercare (…e trovare) delle informazioni in un database non strutturato. Il vantaggio di quest’ultimo algoritmo è di tipo quadratico. Evito a questo punto a tutti i miei lettori, tutta la noiosa teoria sulla differenza tra un bit classico e un qubit (idem per il discorso sui problemi indotti dalla decoerenza, dove il damping e il dephasing giocano un ruolo non indifferente); altrimenti il presente articolo diverrebbe troppo lungo e in pochi verrebbero stimolati a leggerlo fino in fondo. Si tenga solo presente un fatto estremamente importante, quasi sempre soggetto a fraintendimenti: nel momento in cui si compie l’atto di misurazione su un qubit, esso non è più definito da una sovrapposizione di stati, ma diventa semplicemente un bit classico! (infatti, in base al postulato della riduzione del pacchetto d’onda del vettore di stato, la misurazione dovrà terminare necessariamente in zero o in uno). È dunque assolutamente sbagliato credere che quando abbiamo N qubit in realtà abbiamo 2^N possibilità di bit classici! (è possibile tuttavia fare un encoding e grazie ai principi della meccanica quantistica, eseguire delle operazioni che classicamente non potrebbero essere eseguite, senza scalare con il numero dei bit).
Un’altra cosa importante in merito alle porte logiche quantistiche, consiste nel fatto che esse, oltre a dover essere reversibili, debbano anche essere unitarie; poiché è proprio l’unitarietà, a garantire la conservazione del prodotto scalare (nonché della probabilità e della reversibilità). La reversibilità, fortunatamente, è consentita e garantita grazie ad un importante risultato ottenuto da Charles Bennett nel lontano 1973. Egli infatti dimostrò che qualsiasi computazione deterministica può essere resa reversibile. Ad emergere è dunque un fatto molto importante: nonostante la computazione quantistica sia (di base) non deterministica e permette inoltre la reversibilità, essa è tuttavia utilizzabile come modello/struttura computazionale. In sostanza, una computazione deterministica, può essere eseguita con un computer quantistico, solo se essa è reversibile.
Riguardo al concetto di velocità di elaborazione dell’informazione, in generale non ha senso chiedersi quanto sia più veloce un computer quantistico rispetto a un computer classico; ciò che ha senso invece, è chiedersi quanto è asintoticamente più veloce un computer quantistico rispetto a un computer classico. In genere si dice che un computer quantistico ha un vantaggio asintotico, solo se il suo vantaggio su un computer classico, diventa sempre più grande man mano che i problemi che deve affrontare diventano anch’essi sempre più grandi (con il rapporto tra le due velocità, tendente ad infinito). Dunque è possibile che, anche nella risoluzione di un problema in cui, asintoticamente, il computer quantistico “batta” quello classico, per piccoli casi di tale problema, il computer classico sia più “efficiente” di quello quantistico. Si consideri inoltre il fatto che non esiste alcun teorema, che indichi che per particolari e determinate applicazioni, un computer quantistico sia più veloce rispetto a uno classico (si tratta in sostanza di una semplice credenza, tra fisici ed informatici, ancora tutta da dimostrare; se mai un giorno verrà dimostrata).
Ma veniamo a questo punto al concetto di supremazia quantistica, che ha dato in parte il titolo al presente articolo. Con supremazia quantistica, in genere si fa riferimento al fatto che si evidenzi una netta differenza tra il tempo di computazione utilizzato da un computer quantistico e quello invece utilizzato da un computer classico, nel momento in cui entrambi si trovino a risolvere uno stesso/identico problema. È però importante osservare che non si tratta di una caratteristica universale, ma dipende ogni volta dal tipo di problema che viene analizzato.
Stando all’annuncio di Google, l’azienda in questione dichiara (in un articolo uscito su Nature nel mese di ottobre di quest’anno, 2019) di aver costruito un processore a 53 qubit superconduttori, che realizzano una distribuzione di un circuito random quantistico e la ricostruiscono in meno di tre minuti; mentre secondo loro (ovvero secondo Google), i migliori algoritmi classici impiegherebbero migliaia di anni. Ebbene è proprio qui che entra in gioco la logica del vantaggio asintotico, menzionata poc’anzi. È vero che oggi Google può vantare un notevole traguardo raggiunto con “soli” 53 qubit, ma ben presto è quasi del tutto certo che quei 53 qubit diventeranno 60 e poi addirittura 70 (un obiettivo che hanno già pianificato di raggiungere entro il 2023); allora a tal punto, grazie alla natura della crescita esponenziale, a lungo termine, neppure il più potente computer classico che una mente umana possa mai concepire, su un medesimo problema di natura quantistica, riuscirà mai a “stare al passo” con un computer quantistico. Possiamo dunque dare a questo punto una risposta alla domanda che il titolo stesso di questo articolo porta con sé: Google ha realmente raggiunto la supremazia quantistica? Ebbene in questo momento l’unica dimostrazione reale di una supremazia quantistica, nel senso del vantaggio asintotico (ovvero che “andando a scalare”, la supremazia diventa sempre più grande), non vi è quasi più alcun dubbio, è di Google.

A tutti coloro che ritengono che tale supremazia spetti alla D-Wave Systems, posso solo dire: mettetevi il cuore in pace, non è così. La D-Wave non utilizza il modello a circuito per la realizzazione del suo computer quantistico; essa infatti utilizza un Annealer. In estrema sintesi: partendo da un ground state molto semplice, con una successiva evoluzione adiabatica che è lentissima e con un’hamiltoniana molto più complicata (di cui non è possibile prepararne il ground state) e in base al teorema adiabatico (che mi garantisce che se l’evoluzione è sufficientemente lenta, rimango sempre nel ground state), si arriva in sostanza a trasformare il ground state semplice iniziale, nel ground state complicato che in ultima istanza è ciò che si vuole realizzare. Questo è ciò che in pratica fa la D-wave (che recentemente è arrivata oltre i 5000 qubit entangled; cosa non da poco). Ciò che tuttavia la D-wave non è mai riuscita a dimostrare, purtroppo, è di aver raggiunto lo speedup asintotico; cosa che Google è invece riuscito a conquistare …ed anche a dimostrare. 

giovedì 5 dicembre 2019

Una quinta forza fondamentale ...per ora solo ipotetica.

------------------------------
La fisica moderna ammette quattro forze fondamentali nell’Universo: la gravità, l’elettromagnetismo, l’interazione nucleare forte e quella debole. Esse sono all’origine di tutti i fenomeni fisici che si possono osservare. La gravità è descritta dalla Relatività Generale, mentre le altre tre forze appartengono al campo della meccanica quantistica. Riunire queste quattro interazioni in un unico formalismo matematico, è una delle grandi sfide della fisica. Tali sforzi si concentrano generalmente su una descrizione quantistica della gravitazione. Nel modello Standard della fisica delle particelle, ogni forza emerge dallo scambio di bosoni. Il fotone, il gluone e i bosoni W e Z, permettono in tal modo rispettivamente di spiegare l’elettromagnetismo e le interazioni forte e debole. Idealmente, occorrerebbe dunque scoprire un altro bosone: il gravitone; che ci permetterebbe di far rientrare anche la gravità in questo modello. Ma è quasi del tutto certo che in natura vi siano soltanto le quattro forze fondamentali poc’anzi citate. Da qualche decennio a questa parte, tuttavia, la cosmologia ha fatto emergere un certo numero di problemi che difficilmente si possono spiegare con il solo impiego delle quattro forze fondamentali della natura. Si tratta in genere quasi sempre di problemi legati alla materia oscura e all’energia oscura. La domanda che tutti i fisici e i cosmologi si pongono, è perché l’apparente massa dell’Universo sembri essere ben superiore a quella che la sua luminosità ci porterebbe a considerare; ed inoltre, perché la sua espansione continua ad accelerare. Queste domande infine, hanno portato la comunità scientifica a considerare l’eventualità di una quinta forza fondamentale nell’Universo, in grado di spiegare almeno in parte, le recenti osservazioni astronomiche. Vi sono vari modi per riuscire a capire se esista realmente una quinta forza fondamentale e uno di questi, ad esempio, consiste nel cercare delle nuove particelle. Occorrerebbe dunque trovare un nuovo bosone, che supporterebbe una quinta interazione fondamentale. Ebbene nel 2015, un gruppo di ricercatori è riuscito ad identificare un possibile candidato, ovvero una particella che è stata in seguito denominata: X17. Ancora oggi, si tratta comunque solo di un’ipotesi, poiché tale particella non è mai stata osservata. Essa è stata ideata per spiegare il sorprendente risultato di vari esperimenti, inerenti alla disintegrazione del Berillio 8 e dell’Elio 4. In un recente articolo pubblicato il 23 ottobre di quest’anno (2019), lo stesso gruppo di ricercatori ritorna sulle osservazioni inerenti alla disintegrazione dell’Elio 4. Quest’ultimo è un radioisotopo molto instabile; esso si disintegra emettendo delle coppie elettrone-positrone e il numero di coppie emesse, in certe correlazioni angolari, sembrerebbe violare le predizioni del modello Standard della fisica delle particelle. Si tratta di un’osservazione che è stata denominata: anomalia Atomki. Questa anomalia, tuttavia, vìola solo leggermente il Modello Standard; un errore di misurazione è quindi sicuramente possibile. Il gruppo di ricercatori che ha conseguito tale risultato, rimane comunque dell’idea che potrebbe trattarsi dell’operato di un bosone ancora sconosciuto, avente una massa di 17 MeV. Un nuovo bosone e una nuova forza fondamentale, rappresenterebbero sicuramente un punto di svolta decisivo nel campo della fisica. Esso ci costringerebbe a rivedere le nostre teorie sul modo in cui funzionano realmente tutti i processi atomici e subatomici e sull’evoluzione dell’Universo. Per cui occorreranno delle prove assai più consistenti, affinché l’attuale ipotetica (per ora) particella X17, possa un giorno convincere l’intera comunità scientifica della sua reale esistenza e dunque a modificare l’attuale Modello Standard.

Fausto Intilla - www.oloscience.com 

sabato 27 luglio 2019

Tecnologia Terahertz (THZ) in fase di sperimentazione, per rete cellulare di sesta generazione (6G)

Fonte: Phys.org
--------------------
La perfetta integrazione dei collegamenti wireless nelle reti in fibra ottica è la chiave per le reti di dati ad alte prestazioni: le future reti cellulari saranno costituite da molte piccole celle radio che possono essere collegate in modo flessibile tramite collegamenti di trasmissione THz ad alte prestazioni. Al ricevitore, i segnali THz possono essere convertiti direttamente in segnali ottici con l'aiuto di modulatori plasmonici ultrarapidi e trasmessi tramite reti in fibra di vetro.
Le future reti di dati wireless dovranno raggiungere velocità di trasmissione più elevate e ritardi più brevi, fornendo al contempo un numero crescente di dispositivi terminali. A tal fine, sono necessarie strutture di rete costituite da molte piccole celle radio. Per collegare queste celle saranno necessarie linee di trasmissione (ad alte prestazioni) ad alte frequenze fino alla gamma dei terahertz (THz). Inoltre, se possibile, deve essere garantita la perfetta connessione alle reti in fibra di vetro. I ricercatori dell'Istituto di tecnologia di Karlsruhe (KIT) utilizzano modulatori elettro-ottici ultrarapidi per convertire i segnali di dati terahertz in segnali ottici. Tutti i dettagli dello studio sono riportati nell'articolo su Nature Photonics. 
Mentre la nuova tecnologia di rete cellulare 5G è già stata testata ed è pronta per le nuove applicazioni, i ricercatori stanno già lavorando su tecnologie per la prossima generazione di trasmissione dati wireless. Si tratta del "6G" (sesta generazione), il cui obiettivo è quello di raggiungere velocità di trasmissione molto più elevate, ritardi più brevi e una maggiore "densità" del dispositivo, con l'integrazione dell'intelligenza artificiale.
Sulla strada per la rete cellulare di sesta generazione (6G), molte sfide devono essere affrontate sia per quanto riguarda i singoli componenti che la loro interazione. Le future reti wireless saranno costituite da un numero di piccole celle radio per trasmettere in modo rapido ed efficiente grandi volumi di dati. Queste celle saranno collegate da linee di trasmissione, che possono gestire decine o addirittura centinaia di gigabit al secondo per collegamento. Le frequenze necessarie sono nell'intervallo dei terahertz; cioè tra le microonde e la radiazione infrarossa (nello spettro elettromagnetico). Inoltre, i percorsi di trasmissione wireless devono essere perfettamente collegati alle reti in fibra di vetro. In questo modo, verranno combinati i vantaggi di entrambe le tecnologie; ovvero: alta capacità e affidabilità, nonché mobilità e flessibilità.
Gli scienziati hanno sviluppato un approccio promettente alla conversione dei flussi di dati tra i domini terahertz e quelli ottici. Nell'esperimento sono stati utilizzati modulatori elettro-ottici ultrarapidi per convertire direttamente un segnale dati terahertz in un segnale ottico e per accoppiare direttamente l'antenna del ricevitore a una fibra di vetro. Nel loro esperimento, gli scienziati hanno selezionato un'onda portante avente una frequenza di circa 0,29 THz e hanno raggiunto una velocità di trasmissione dati di 50 Gbit / s. 
"Il modulatore si basa su una nanostruttura plasmonica e ha una larghezza di banda di oltre 0,36 THz", afferma il professor Christian Koos; per poi aggiungere: "I nostri risultati rivelano il grande potenziale dei componenti nanofotonici per l'elaborazione del segnale ultraveloce". Il concetto dimostrato dai ricercatori ridurrà considerevolmente la complessità tecnica delle future stazioni radio di base e consentirà connessioni terahertz con velocità di trasmissione dati molto elevate: sono possibili diverse centinaia di gigabit al secondo.

È giunta l'era dei transistor in 2D ! Per nanochips ultraveloci.

Fonte: Phys.org
--------------------
Per decenni, i transistor sui nostri microchip sono diventati più piccoli, più veloci ed economici. Circa ogni due anni il numero di transistor su chip commerciali è raddoppiato: questo fenomeno è diventato noto come "Legge di Moore". Ma ormai da diversi anni, la legge di Moore non regge più. La miniaturizzazione ha raggiunto un limite naturale; poiché sorgono problemi completamente nuovi quando ci si avvicina ad una scala di lunghezze di pochi nanometri. 
Ora, tuttavia, il prossimo grande passo di miniaturizzazione potrebbe presto diventare possibile - con i cosiddetti "materiali bidimensionali (2-D)" che possono consistere in un solo strato atomico. Con l'aiuto di un nuovo isolante a base di fluoruro di calcio, gli scienziati dell'Università Tecnica di Vienna (TU Wien), in Austria, hanno creato un transistor ultrasottile, che ha eccellenti proprietà elettriche e contrariamente alle tecnologie precedenti, può essere miniaturizzato a dimensioni estremamente ridotte. La nuova tecnologia è stata recentemente presentata sulla rivista Nature Electronics.
La ricerca sui materiali semiconduttori necessari per fabbricare transistor ha registrato progressi significativi negli ultimi anni. Oggi, i semiconduttori ultrasottili possono essere realizzati con materiali 2D, costituiti da pochi strati atomici. "Ma questo non è sufficiente per costruire un transistor estremamente piccolo", afferma il professor Tibor Grasser dell'Istituto di microelettronica della Università Tecnica di Vienna. "Oltre al semiconduttore ultrasottile, abbiamo anche bisogno di un isolante ultrasottile." 
Ciò è dovuto alla struttura di progettazione fondamentale di un transistor: la corrente può fluire da un lato all'altro del transistor, ma solo se al centro viene applicata una tensione, creando un campo elettrico. L'elettrodo che fornisce questo campo deve essere isolato elettricamente dal semiconduttore stesso. "Esistono già esperimenti con transistor con semiconduttori ultrasottili, ma fino ad ora sono stati accoppiati con isolanti ordinari", afferma Tibor Grasser. "Non c'è molto vantaggio nel ridurre lo spessore del semiconduttore quando deve ancora essere combinato con uno spesso strato di materiale isolante. Non c'è modo di miniaturizzare ulteriormente un tale transistor. Inoltre, su scale di lunghezza molto ridotte, la superficie dell'isolante si è rivelato disturbare le proprietà elettroniche del semiconduttore ".
Pertanto, Yury Illarionov, postdoc nella squadra di Tibor Grasser, ha provato un nuovo approccio. Ha usato materiali 2D ultra sottili non solo per la parte a semiconduttore del transistor, ma anche per la parte isolante. Selezionando materiali isolanti ultrasottili come i cristalli ionici, è possibile costruire un transistor con una dimensione di pochi nanometri. Le proprietà elettroniche in tal caso vengono nettamente migliorate, poiché i cristalli ionici possono avere una superficie perfettamente regolare, senza un singolo atomo che sporge dalla superficie (il che potrebbe disturbare il campo elettrico). "I materiali convenzionali hanno legami covalenti nella terza dimensione: atomi che si accoppiano ai materiali vicini sopra e sotto", spiega Tibor Grasser. "Questo non è il caso dei materiali 2D e dei cristalli ionici e quindi non interferiscono con le proprietà elettriche del semiconduttore."
Per produrre il nuovo transistor ultrasottile, è stato scelto il fluoruro di calcio come materiale isolante. Lo strato di fluoruro di calcio è stato prodotto presso l'Istituto Ioffe di San Pietroburgo. Il transistor stesso è stato quindi prodotto dal team del Prof. Thomas Müller, presso l'Istituto di fotonica della Università Tecnica di Vienna e analizzato presso l'Istituto di microelettronica.
Il primissimo prototipo ha già superato tutte le aspettative: "Per anni abbiamo ricevuto numerosi transistor diversi per indagare sulle loro proprietà tecniche, ma non abbiamo mai visto nulla di simile al nostro transistor con l'isolante al fluoruro di calcio", afferma Tibor Grasser. "Il prototipo, con le sue proprietà elettriche superiori, supera tutti i modelli precedenti."
Ora il team vuole scoprire quali combinazioni di isolanti e semiconduttori funzionano meglio. Potrebbero essere necessari alcuni anni prima che la tecnologia possa essere utilizzata per chip di computer disponibili in commercio, poiché i processi di produzione per gli strati di materiale devono ancora essere migliorati. "In generale, tuttavia, non vi è dubbio che i transistor realizzati con materiali 2D siano un'opzione molto interessante per il futuro", afferma Tibor Grasser. "Da un punto di vista scientifico, è chiaro che i fluoruri che abbiamo appena testato sono attualmente la migliore soluzione per il problema degli isolanti. Ora, rimangono solo alcune domande tecniche a cui rispondere". 
Questo nuovo tipo di transistor più piccolo e più veloce dovrebbe consentire all'industria dei computer di compiere il prossimo grande passo. In questo modo, la legge di Moore sull'aumento esponenziale della potenza dei computer potrebbe presto, prendere di nuovo vita. 

lunedì 15 luglio 2019

Il primo vaccino al mondo, creato da un'intelligenza artificiale.

----------------------------------

Dei ricercatori australiani hanno realizzato un'intelligenza artificiale che ha permesso la creazione di un nuovo vaccino contro il virus dell'influenza.
L'uso del computer nello sviluppo di un trattamento farmacologico non è una novità. Di solito vengono utilizzati per simulare il loro meccanismo molecolare, al fine di verificare che possano legarsi all'obiettivo desiderato. Ma gli scienziati della Flinders University nel sud dell'Australia si sono spinti oltre, creando un'IA in grado di sviluppare e testare le molecole in modo completamente indipendente. Ciò al fine di determinare quale trattamento farmacologico potrebbe essere usato per un vaccino efficace. 
Infatti, questo algoritmo, che hanno chiamato SAM (Search Algorithm for Ligands), può analizzare tutte le molecole esistenti o che possono essere create, al fine di ottenere il composto più efficace (o ligando) contro una malattia (secondo il gruppo guidato dal professor Nikolai Petrovsky). Per questo, hanno dovuto insegnare a SAM diversi tipi di composti in grado di attivare il sistema immunitario (adiuvanti), e altri che non possono, in modo che possa distinguere le molecole efficaci da quelle che non lo sono. 
Un secondo algoritmo creato anche dal gruppo ha il compito di generare miliardi di composti chimici che verranno poi analizzati da SAM. Quest'ultimo definirà quali potenzialmente potrebbero essere utilizzati per lo sviluppo di vaccini efficaci. I ricercatori dovevano solo sintetizzare i migliori candidati per testarli finalmente sul sangue umano. "Questo ha confermato che SAM non solo ha la capacità di identificare trattamenti buoni, ma potrebbe anche sviluppare migliori farmaci immunitari umani, che attualmente ancora non esistono", afferma il prof. Petrovsky. "Abbiamo quindi preso i farmaci in via di sviluppo creati da SAM per i test sugli animali per confermare la loro capacità di aumentare l'efficacia del vaccino antinfluenzale. La sperimentazione animale ci ha già dimostrato che il vaccino è molto protettivo contro l'influenza e sovraperforma i vaccini esistenti. Ora, dobbiamo solo confermarlo negli umani. "
Petrovsky aggiunge anche che la loro IA può essere utilizzata per lo sviluppo di altri trattamenti, consentire uno sviluppo molto più veloce di questi e quindi risparmiare milioni di dollari nella ricerca (uno svantaggio che ha ostacolato il loro studio). In effetti, ricevere fondi per la ricerca in Australia è molto complicato se non sei uno dei più grandi istituti o università del paese.
"È particolarmente difficile per i ricercatori ospedalieri, come noi, avere un'influenza positiva su questo sistema nonostante il fatto che precedenti premi Nobel, compresi quelli di Barry Marshall, siano derivati da ricerche ospedaliere ", aggiunge Petrovsky. Come risultato di questo problema, molti scienziati cercheranno fondi in altri paesi. La richiesta di sovvenzione di Petrovsky è stata respinta in Australia, ma è stata accettata dall'Istituto Nazionale della Salute degli Stati Uniti, che gli ha assegnato più di 50 milioni di dollari. 
Il gruppo ha avviato studi clinici negli Stati Uniti, che dureranno 12 mesi. La scelta di sviluppare un vaccino antinfluenzale efficace deriva dall'aumento dei tassi di infezione negli ultimi anni, che hanno raddoppiato il numero di decessi causati dall'influenza stagionale nel 2019 in Australia. Nel 2018, più di 13.000 decessi sono stati attribuiti all'influenza stagionale in Francia.