NotiziaRealta virtuale

Visualizzazione della realtà mista in tempo reale dei dati del rivelatore di radiazioni a doppia particella

Calcolo dell’immagine di radiazione

Una panoramica della pipeline di dati dalle interazioni del rivelatore alla visualizzazione MR è mostrata in Fig. 2. Il sistema H2DPI è stato installato su una scheda ottica per garantire un posizionamento ripetibile, una descrizione più dettagliata della geometria del rivelatore è disponibile nella sezione Metodi.

figura 2
figura 2

Panoramica dell’elaborazione dei dati dalle interazioni delle particelle alla visualizzazione RM. (un) Le interazioni delle radiazioni nel sistema di rilevamento H2DPI vengono osservate tramite array SiPM collegati a un digitalizzatore. (b) Le forme d’onda acquisite vengono inviate al PC di acquisizione a intervalli regolari su un cavo ottico, dove vengono filtrate e inviate tramite Wi-Fi a HoloLens2. (c) HoloLens2 proietta i dati nel campo visivo degli utenti. Singoli eventi (d) può essere utilizzato per stimare i tassi di conteggio totali in ciascun rivelatore (cioè, sia neutroni che raggi gamma), che mostrano una forma specifica a seconda della posizione azimutale della sorgente (e). Le velocità di conteggio medie per rilevatore vengono fornite come input a una rete neurale pre-addestrata (f) che prevede l’azimut della sorgente, mostrando all’utente una freccia. Eventi a doppia dispersione in due diversi volumi del rivelatore (g) consentono la ricostruzione del cono di incidenza della particella rilevata con angolo di apertura (alfa). Successiva classificazione delle particelle dei singoli eventi nello scintillatore di vetro organico (OGS) tramite discriminazione della forma dell’impulso (h) consente la differenziazione tra coni di incidenza neutrone-neutrone e gamma-gamma. Una linea di discriminazione tra i cluster della forma dell’impulso (bianca) viene trovata inserendo una doppia gaussiana in ciascuna fetta di energia equivalente e prendendo la valle come soglia di decisione. Utilizzando un algoritmo di retroproiezione i coni vengono sovrapposti per creare l’immagine della radiazione (io) nello spazio angolare (Azimut (Theta)Altitudine (Fi)) sia per i raggi gamma che per i neutroni veloci. All’utente viene quindi mostrata una proiezione 3D dell’immagine in MR.

L’H2DPI è costituito da una serie di rivelatori ottimizzati per l’imaging, in particolare attraverso la disposizione del reticolo di 12 barre scintillatrici di vetro organico per il rilevamento veloce di neutroni e raggi gamma e 8 CeBr3 scintillatori inorganici per la rivelazione fotoelettrica di raggi gamma. Le immagini di radiazione vengono calcolate tramite eventi a doppia dispersione nell’H2DPI (Fig. 2g), ovvero tutte le forme d’onda vengono filtrate in coppie di eventi che soddisfano le condizioni di essersi verificate entro 30 ns l’una dall’altra in due diversi volumi di rivelatori. Questi eventi doppi vengono quindi classificati tramite le forme d’onda dei singoli eventi in eventi di raggi gamma o di neutroni veloci4 (Fig. 2h) e filtrato per considerare solo i doppi neutrone-neutrone e gamma-gamma. Ogni evento a doppia dispersione ha un’incidenza stimata associata conoche si sovrappongono per costruire la cosiddetta semplice immagine di retroproiezione3. Utilizzando eventi neutrone-neutrone o gamma-gamma, è possibile calcolare cumulativamente nel tempo un’immagine di neutroni e/o raggi gamma nello spazio angolare (Fig. 2i).

Le forme d’onda digitalizzate dal sistema di rilevamento (Fig. 2a) vengono inviate in batch di dimensioni arbitrarie (tipicamente impostate per scrivere un batch all’incirca ogni 2 secondi) al PC di acquisizione (Fig. 2b). Qui viene eseguito il filtraggio degli eventi in coni di incidenza a doppia dispersione. I singoli coni sono quindi disponibili su un server ospitato localmente a cui HoloLens2 accede tramite la rete wireless (Fig. 2c). È stato riscontrato che l’invio di singoli coni anziché di immagini riduce la tensione complessiva della rete, consentendo un flusso di dati costante dal rilevatore a HoloLens.

Visualizzazione dei dati sulle radiazioni in tempo reale in MR

La visualizzazione MR in HoloLens2 si ottiene tramite diversi passaggi utilizzando un’applicazione scritta nel motore di gioco Unity25 che viene eseguito su HoloLens. Per prima cosa viene fornita a HoloLens la posizione del rilevatore. La mappatura spaziale 3D è una funzionalità di base di HoloLens e un’interfaccia di programmazione dell’applicazione (API) fornisce la mappa spaziale dell’ambiente circostante al programmatore back-end. Utilizziamo inoltre l’API HoloLens che consente la scansione di codici QR nello spazio per localizzare una determinata coordinata 3D nella mappa spaziale data. Un codice QR è posizionato sulla superficie dell’H2DPI in una posizione nota rispetto al centro del sistema di rilevamento (vedere Fig. 3a, d), consentendo il calcolo di una posizione di riferimento.

Contemporaneamente, HoloLens utilizza la rete Wi-Fi locale per interrogare un server ospitato sul PC di acquisizione per recuperare i dati del rilevatore. Dopo aver ricevuto i coni, il visualizzatore esegue una semplice retroproiezione per generare la trama dell’immagine della radiazione nello spazio H2DPI. Viene quindi utilizzato un pixel shader per eseguire il rendering dell’immagine sulla mesh spaziale. Per ogni pixel sulla mesh spaziale, la posizione dello schermo dei pixel viene trasformata nelle coordinate di riferimento, che vengono poi trasformate in coordinate sferiche H2DPI, che vengono utilizzate per campionare dall’immagine della radiazione. Viene applicata una mappa dei colori per trasmettere l’intensità, creando un’impressione colorata della maglia spaziale (che altrimenti è trasparente). Una colorazione più intensa della maglia sarebbe quindi indicativa di un’immagine di radiazione più intensa in quella direzione spaziale.

Oltre alla colorazione della mesh spaziale, iteriamo attraverso ogni pixel nella texture retroproiettata e proiettiamo un raggio dall’H2DPI per illustrare la natura angolare delle informazioni nell’immagine. Se il raggio si interseca con la mesh spaziale e supera una certa soglia, traccia una linea tra H2DPI e la mesh spaziale. Tutte le fasi di elaborazione menzionate in genere richiedono meno di un secondo, fornendo così un’esperienza visivamente fluida. La visualizzazione dei raggi o della colorazione della mesh spaziale è disponibile per l’utente tramite un menu virtuale che si trova sul polso (ad esempio, quando il polso dell’utente si trova nel campo visivo di HoloLens, viene visualizzato un menu con pulsanti virtuali per le impostazioni ).

Come illustrazione dell’esperienza visiva risultante, mostriamo le immagini scattate con HoloLens raffiguranti due esperimenti in Fig. 3. Nel primo esempio, abbiamo nascosto un 137Sorgente Cs sotto uno dei tre tappi (Fig. 3a). Dopo circa 30 secondi di tempo di acquisizione, HoloLens visualizza la mesh spaziale colorata (Fig. 3b) o i raggi (Fig. 3c) in base all’immagine di retroproiezione. In qualsiasi momento, l’utente può alternare tra la visualizzazione dell’immagine di raggi gamma o di neutroni. Esempi di immagini di neutroni e raggi gamma sono mostrati in Fig. 3e, f, in cui mostriamo la vista MR di una configurazione sperimentale utilizzando un 252Cf sorgente posta davanti al sistema di rilevazione.

Un aspetto importante dell’ombreggiatura colorata dell’hot spot è la scelta della mappa dei colori. Con la presente abbiamo seguito la regola per utilizzare mappe di colori sequenziali percettivamente uniformi26. Abbiamo implementato le colormap sequenziali standard percettivamente uniformi utilizzate in Matplotlib (viridis, inferno, magma, plasma, cividis)27 come opzioni, che l’utente può scegliere nel menu virtuale. L’utente può quindi scegliere la mappa dei colori appropriata per massimizzare il contrasto per un dato sfondo o per regolare la capacità dell’utente di distinguere i colori. Ad esempio, una mappa di colori contenente rosso (inferno) su uno sfondo verde (ad es. erba) potrebbe non essere informativa per un utente con deuteranomalia e potrebbe scegliere di passare a una mappa basata su giallo/blu (cividis).

Figura 3
figura 3

Esempi di oggetti visivi in ​​realtà mista visti dall’utente che indossa HoloLens2. (un) A 100 (mu)Ci 137La sorgente Cs è impostata sotto uno dei tre tappi davanti al sistema di rilevamento. (b) In RM, all’utente viene mostrata una colorazione della mesh spaziale dopo circa 30 secondi dall’acquisizione. (c) L’utente può facoltativamente scegliere di visualizzare anche i raggi che puntano al punto caldo. (d) A 1 mCi 252Cf sorgente davanti al sistema. (e) L’immagine dei raggi gamma si forma entro circa 20 secondi. (f) L’utente può passare all’immagine di neutroni (acquisita simultaneamente) tramite un menu del polso. Un’immagine convergente di neutroni che si interseca con la posizione prevista della sorgente viene vista dopo circa un minuto.

Ricerca rapida della fonte tramite rete neurale

Gli eventi a doppia dispersione sono rari rispetto ai singoli eventi e in molti scenari potrebbe non formarsi un’immagine sufficientemente convergente entro un dato tempo di misurazione. Al fine di guidare in modo ottimale l’operatore del rivelatore nello spostamento del sistema del rivelatore in una posizione più vicina, proponiamo di utilizzare i tassi di conteggio delle singole interazioni per prevedere rapidamente la posizione della sorgente (Fig. 2d), poiché i tassi di conteggio possono essere stimati in qualsiasi punto del misurazione. A causa della disposizione del reticolo del rivelatore, ci aspettiamo un gradiente nelle velocità di conteggio (Fig. 2e, ovvero i rivelatori più vicini alla sorgente hanno una velocità di conteggio maggiore rispetto ai rivelatori più lontani, consentendo così un metodo di apprendimento statistico per prevedere l’angolo di incidenza della radiazione).

Le velocità di conteggio per rilevatore sono stimate tramite una media mobile sulle forme d’onda su una misurazione di 1-2 secondi e fornite come input in una rete neurale addestrata che emette una posizione azimutale stimata della sorgente. Descriviamo la rete neurale (dati di addestramento e iperparametri) nella sezione Metodi. In MR, all’utente viene presentata una freccia che punta nella direzione azimutale della previsione.

La Figura 4 mostra un esempio delle immagini MR per la stima della direzione della sorgente per entrambi 137Cs e 252Cf fonti. La previsione, a causa delle ridotte dimensioni della rete neurale, richiede meno di 1 secondo e fornisce il risultato atteso. La quantificazione dell’incertezza delle previsioni della rete neurale esula dallo scopo di questo studio e quindi presentiamo questo risultato qualitativamente come una prova del concetto. Si noti che la rete neurale è stata addestrata 252Cf simulazioni, ma le previsioni erano corrette per entrambi 252Cf e 137Esperimenti di CS. Ciò mostra la promessa di future indagini per chiarire le prestazioni della rete neurale, in particolare per quanto riguarda l’addestramento su più fonti, più distanze, nonché l’angolo di altitudine.

Figura 4
figura 4

Esempi di oggetti visivi di realtà mista visti dall’utente che indossa HoloLens2 per la stima rapida della direzione della sorgente usando una rete neurale. (un) A 100 (mu)Ci 137La sorgente Cs è conservata in tre diverse posizioni attorno al rilevatore, il display MR mostra una freccia gialla per rappresentare l’ipotesi delle reti neurali. (b) A 1 mCi 252La sorgente Cf si trova in punti diversi attorno al rivelatore. La previsione e la visualizzazione della posizione stimata della fonte hanno richiesto in ogni caso meno di 1 secondo.

Limiti di rilevamento per l’attuale sistema H2DPI

Gli eventi di doppia dispersione sono relativamente rari e il loro verificarsi pone il limite principale al raggiungimento di un’immagine di radiazione che, secondo una certa soglia empiricamente determinata, è convergente. In Fig. 5 mostriamo i tassi di eventi a doppia dispersione per 252Cf e 137Fonti Cs per aumentare le distanze dal sistema per illustrare questo. Con l’aumentare della distanza, come è ovvio dalla diminuzione del tasso di singolo evento seguendo approssimativamente una legge dell’inverso del quadrato, osserviamo una diminuzione dei tassi di doppia dispersione. Indichiamo inoltre i tassi di eventi approssimativi che produrrebbero un’immagine convergente (definita arbitrariamente come 1000 coni, in base all’esperienza degli autori), dimostrando che le sorgenti utilizzate possono essere riprese solo in meno di 1 ora alla convergenza entro un raggio di 1 m intorno il sistema. Il sistema H2DPI sarà in futuro aggiornato per contenere fino a 64 barre scintillatrici di vetro organico, migliorando l’efficienza del rilevamento di circa dieci volte per i neutroni e di venti volte per i raggi gamma, alleviando i problemi relativi al tempo di convergenza4.

Le fonti che abbiamo utilizzato, tuttavia, sono relativamente deboli. Si prevede che un’estrapolazione dei tassi di doppio evento con l’attività si ridimensioni linearmente, consentendo così previsioni per scenari specifici. Ad esempio, la maggior parte degli incidenti causati da radiazioni causati da sorgenti smarrite o rubate alla fine del XX secolo riguardava sorgenti con attività >100 GBq28, essendo quindi più di tre ordini di grandezza più forte delle fonti che abbiamo usato in questo lavoro. Un’immagine convergente sarebbe quindi, assumendo il modello che abbiamo usato per gli eventi gamma da 252Cf, formarsi entro un minuto a più di 10 metri di distanza, consentendo una valutazione sicura della posizione della sorgente anche con il sistema attuale.

Figura 5
figura 5

Tassi di interazione a doppia dispersione (al minuto) con la distanza della sorgente dal sistema di rilevamento per 100 (mu)Ci 137Cs e 1 mCi 252Cf fonti. Gli adattamenti del modello della legge del quadrato inverso sono mostrati per illustrazione, accanto a due linee che indicano il tempo necessario per ottenere un’immagine convergente (1000 eventi a doppia dispersione). Le barre di errore sono spesso più piccole del marcatore.


Source link

Related Articles

Back to top button