BrainControl. Un avatar robot controllato col pensiero

Tramite un alter ego tecnologico chi soffre di gravi disabilità potrà muoversi, visitare un museo e interagire a distanza

 

Percorrere le sale di un museo, guardare le opere, ascoltare le guide e parlare con gli altri visitatori. Sì, ma attraverso un avatar robot connesso via internet e controllato con un joystick, con lo sguardo o addirittura col pensiero, mentre in realtà siamo a casa, magari a centinaia di chilometri di distanza. Sembra la fantasia di un futuro lontano ma è già realtà, grazie all’avveniristica tecnologia BrainControl della Liquidweb. Il progetto – ideato dall’ingegner Pasquale Fedele e presentato al Museo Santa Maria della Scala di Siena – consente alle persone con disabilità gravissima di superare qualsiasi barriera architettonica per la fruizione delle esposizioni. E non solo.

 

 

UN INCONTRO SORPRENDENTE

 

Se passi a Siena ed entri nel Museo Santa Maria della Scala potresti fare la conoscenza con un visitatore molto particolare. A un primo sguardo sembra una sorta di segway, quei dispositivi elettrici a due ruote che trasportano un solo passeggero in piedi. Ti accorgi che è un robot, ma la maglietta che indossa lo rende antropomorfo e anche simpatico.

 

Potrebbe capitare che all’improvviso si giri per chiedere il tuo parere sul quadro che stai ammirando: noterai allora che la sua “testa” è un complesso dispositivo dotato di altoparlanti, microfono, telecamera e un display che mostra il viso della persona che si è rivolta a te, come in una videochiamata. 

 

 

 

Si tratta del “pilota” che sta teleguidando il robot, e che grazie ad esso interagisce a distanza con le guide turistiche e i visitatori, può ammirare le opere nel dettaglio spostandosi e usando un potente zoom. Grazie al robot – a tutti gli effetti un’estensione del suo corpoquella persona ha la sensazione di essere lì, anche se in realtà si trova a casa, su una carrozzina, anche a centinaia di chilometri di distanza.

 

 

 

A SPASSO CON IL ROBOT

 

L’innovativa e futuristica tecnologia BrainControl della Liquidweb è stata ideata dall’ingegner Pasquale Fedele proprio per aiutare le persone con disabilità gravissima. Perché troppo spesso eliminare le barriere architettoniche all’ingresso di un museo non equivale a garantire a queste persone una reale fruibilità delle opere d’arte, organizzate in allestimenti che richiedono altezze e spostamenti per loro impossibili.

 

Qui entra in gioco la scienza: l’utente si connette via internet all’avatar robot e può pilotarlo con il joystick che usa per muovere la carrozzina o con un puntatore qualunque. Oppure, addirittura, se è affetto da patologie gravi che gli inibiscono i movimenti, con la straordinaria tecnologia BrainControl AAC può farlo grazie al movimento degli occhi o agli stimoli del cervello.

 

Tramite questo alter ego, la persona si muove a distanza nell’ambiente, guarda, ascolta, parla, interagisce. Niente a che fare con le ricostruzioni in 3D, ancora troppo finte, ancora troppo fredde: l’utente si sente davvero in un altro ambiente.

 

 

Prenotando via internet a questo link è possibile provare il martedì pomeriggio l’avatar robot per visitare la Sala Mascioli, la Sala del Pellegrinaio, la Cappella del Manto e il Museo d’Arte per bambini al Museo Santa Maria della Scala.

 

 

L’IMMAGINAZIONE? UN PUNTO DI PARTENZA

 

Così recita la clip che presenta la tecnologia BrainControl AAC. Si tratta di un dispositivo di comunicazione basato su Intelligenza Artificiale per l’interazione uomo-macchina. Il sistema capta e interpreta gli impulsi elettrici prodotti dal cervello umano, agendo in due modalità.

 

La prima, Brain-Computer Interface (BCI), è una sorta di “joystick mentale”che impiega pensieri relativi al movimento come sinistra, destra, su, giù. Questa modalità è rivolta ai pazienti che hanno abilità cognitive intatte ma sono affetti da malattie che paralizzano completamente o in parte la persona, impedendogli anche l’uso dei sistemi di eye-tracking (tetraplegia, Sclerosi Laterale Amiotrofica, Sclerosi Multipla e distrofie muscolari di varia natura). Interpretando i segnali del cervello, dopo una fase di training sarebbe possibile ridare a questi pazienti la possibilità di interagire e comunicare con i propri cari.

 

La seconda modalità, BrainControl Sensory AAC, è pensata per i pazienti in grado di sfruttare movimenti anche minimi della pupilla o di qualsiasi altra parte del corpo. Può integrare sensori di movimento a infrarosso, telecamere e dispositivi di eye-tracking.

 

Liquidweb sta lavorando al progetto Braincontrol AAC Plus, che sviluppa e integra le due tecnologie per controllare una carrozzina elettrica, ma anche per pilotare a distanza il nostro simpatico avatar robot, oppure elementi di domotica come luci, allarmi e temperatura. Con un movimento degli occhi. O soltanto con il pensiero. 



  • Google+
  • Pinterest
  • Email