Set 19, 2017 | News on Augmented, Mixed and Virtual Reality
È stato presentato l’11 settembre da Apple alla WWDC17 (Worldwide Developers Conference) l’ingresso ufficiale del mondo IOS nella realtà aumentata.
Grazie alla piattaforma chiamata Arkit, gli sviluppatori potranno creare esperienze con l’AR con la sovrapposizione di immagini digitali e animazioni su ciò che si vede nel mondo reale attraverso la telecamera dei propri dispositivi.
Una tecnologia che cambierà il mondo del gaming, del turismo del training on the job e della formazione.
La tecnologia della realtà aumentata in realtà esiste già da qualche anno ma solo negli ultimi anni la grande diffusione degli smartphone ha contribuito a renderla più conosciuta e utilizzata. Secondo gli esperti di Apple, la nuova applicazione contribuirà ulteriormente alla diffusione capillare anche in considerazione dei milioni di apparati IOS utilizzati nel mondo.
L’AR per funzionare ha bisogno di una fotocamera che riprenda un ambiente reale, sul quale sono poi sovrapposti gli oggetti virtuali.
La parte complicata è quella di fare in modo che l’oggetto virtuale risulti il più realistico possibile nel contesto in cui si trova: deve quindi restare fermo rispetto agli altri oggetti reali, come se si trovasse effettivamente nell’ambiente.
Già numerose le applicazioni disponibili, alcune già mature come quella sviluppata dalla famosa azienda di mobili svedese Ikea, che consente di aggiungere arredi virtuali alla propria abitazione e poter vedere che effetto fanno i mobili all’interno della propria casa.
Il grande motore di ricerca delle GIF animate (Giphy) ha preparato una app per inserire animazioni in uno spazio reale tridimensionale, che possono poi essere condivise con altre persone che usano la stessa applicazione.
Alcune aziende hanno invece sviluppato giochi in cui l’ambiente di gioco 3D è sovrapposto all’ambiente reale in cui ci si trova e non ci sono comandi tradizionali per muovere il suo protagonista, ma per farlo si deve guardare lo schermo dello smartphone allineando alcuni punti.
Molto interessante anche l’ambito della lettura, da vedere come possibile ambito didattico : il “piccolo bruco maisazio”, uno dei libri per l’infanzia più conosciuti viene trasformato in una sorta di libro virtuale interattivo, con il bruco che si muove in un ambiente reale grazie alla realtà aumentata. Si possono seguire le vicende del bruco ma anche interagire con lui e con le cose che gli stanno intorno.
Con ogni probabilità ARKit è solo l’inizio: secondo quanto sostengono in Apple, l’Phone 8 integrerà hardware dedicato per esperienze in realtà aumentata ancora più precise, dettagliate e realistiche, tra cui un sensore per rilevare la distanza e la profondità degli oggetti, evoluzione che darà ancora più spazio alla fantasia degli sviluppatori.
Ovviamente Google, non starà a guardare. In realtà era partita prima con il lancio nel 2014 di TANGO che prevede nei piani il rilascio entro il 2020 di molte applicazioni.
Al momento, però, sono poche le aziende che hanno deciso di puntare a questa piattaforma perché Tango sfrutta dei sensori sulla fotocamera per tracciare i movimenti e l’interazione con lo spazio. Sensori che sono fondamentali per l’AR di Google. Purtroppo, però, la maggior parte dei produttori di hardware nell’ultimo periodo ha realizzato smartphone senza questi sensori e quindi la diffusione della piattaforma va a rilento.
Ci immaginiamo nei prossimi anni, una importante diffusione dell’AR anche in ambito scolastico e didattico.
La realtà virtuale consente una totale immersione all’interno del contenuto formativo che è possibile “esplorare” in qualsiasi direzione e muovendosi all’interno di esso.
Il maggior coinvolgimento dentro lo scenario consentirà un miglior apprendimento con minor sforzo. Immaginate come può diventare interattivo e più interessante la visita ad un museo, lo studio della storia: l’esperienza sensoriale consentirà agli studenti di vivere esperienze molto più interessanti che facilmente rimarranno loro impresse.
Ma non solo: attraverso un monitor, è possibile guidare passo passo i lavori da compiere ad esempio all’interno di un ambiente che ricrea perfettamente la realtà, impartendo istruzioni tanto agli studenti, sulla conoscenza degli strumenti tecnici.
Dagli ambienti di trainingaziendale, con esperienze immersive che mostrano ai dipendenti come eseguire le operazioni più semplici, come montare e smontare le componenti di una macchina utensile, e quelle più complesse ma anche laboratori digitali negli istituti tecnici per i lavoratori di domani, che insegnano agli studenti a lavorare con parchi macchine nuovi e al passo con i tempi.
Il futuro della didattica passerà dunque sicuramente anche attraverso esperienze di realtà aumentata.
See on Augmented World
Set 19, 2017 | News on Augmented, Mixed and Virtual Reality
Sentiamo spesso parlare di “Realtà Virtuale” e ”Realtà Aumentata”, siamo abituati a vederne le immense potenzialità applicate nei musei di tutto mondo dove il Bene Culturale viene ricostruito come era ai tempi in cui veniva utilizzato e può essere visitato percorrendolo e «interagendo virtualmente con esso, come se una macchina del tempo ci avesse proiettato in un passato assai remoto».
Bisogna sapere che questo “viaggio”, necessita di dispositivi che consentono di guardare con un’altra visione «per vedere quello che normalmente non si vede, per sentire suoni, odori, emozioni, sensazioni tattili difficilmente avvertibili». Si tratta, quindi, di proiettarsi in un’altra realtà o in una “Realtà Aumentata” che potrebbe rappresentare una grande metafora spirituale, la possibilità, cioè, di «acuire la percezione del terzo Occhio che tutto vede, sente e immagina, che è in grado di leggere ogni elemento della realtà tangibile e intangibile, scoprendo le infinite capacità interiori di tutti gli individui». Mi piace pensare che «i dispositivi di ‘Realtà Virtuale’ e ‘Realtà Aumentata’ non fanno altro che sfruttare dei meccanismi del cervello e aiutano l’uomo ad immaginare quello che spesso non riesce a vedere, a guardare quello che altri percepiscono, o a vedere realtà di epoche diverse che altri hanno vissuto».
Bisogna sapere che i dispositivi necessari per effettuare questo viaggio possono essere un «visore, ossia dei semplici occhiali o una sorta di casco che consentono di far scomparire il mondo reale dell’utilizzatore per proiettarlo, attraverso degli schermi speciali, in un ambiente del tutto virtuale o in uno reale dove siano stati introdotti dei nuovi elementi per accrescerne alcune caratteristiche», un auricolare per sentire suoni, rumori e musiche, un paio di guanti, del tipo wired gloves, con i quali effettuare movimenti e digitare comandi sulle tastiere virtuali, una tuta speciale da indossare, la cyber-tuta, per simulare il senso del tatto.
Quando abbiamo a che fare con occhiali, tute, auricolari e guanti si fa riferimento ad una “Realtà Virtuale Immersiva” (o RVI), se ci troviamo, invece, davanti al monitor di un Computer siamo davanti a una Realtà Virtuale non Immersiva, dove l’utilizzatore fa ingresso nel mondo tridimensionale attraverso appositi dispositivi con cui controlla quanto visualizzato sullo schermo. È chiaro che nel primo caso l’utente avrà un maggior grado di coinvolgimento essendo partecipe di quello che accade quasi fisicamente. Che differenza c’è, quindi, tra la “Realtà Virtuale” e la “Realtà Aumentata”? Nel primo caso viene simulata una realtà effettiva, si può navigare e muoversi in tempo reale in ambientazioni fotorealistiche e interagire con gli oggetti in esse presenti. Nel secondo caso (Augmented Reality), avviene una specie di «mescolanza tra la percezione della realtà circostante e le immagini che vengono generate da un Personal Computer, allo scopo di fornire all’utente informazioni aggiuntive mentre si muove e interagisce con l’ambiente effettivo che lo circonda».
Fatte queste premesse fondamentali tratte dal libro scritto a quattro mani con mio fratello Maurizio, Ingegneria Elevatoᵑ – Ingegneria del Futuro o Futuro dell’Ingegneria?, facciamo ora riferimento alla “Realtà Aumentata” che fornisce la possibilità di sovrapporre contenuti digitali – suoni, grafica, video o altre interfacce – al mondo reale. Restringendo il campo al Turismo e ai Patrimoni Culturali abbiamo intervistato il Dottor Mirco Compagno, Augmented Reality Architect and UX Designer di THE ROUND società operante nel settore delle nuove tecnologie della comunicazione e dell’informazione”.
Nel 2013, quando Google ha avviato il programma di ricerca per creare un paio di occhiali dotati di “Realtà Aumentata”, i Google Glass, le aspettative di successo erano enormi, ma il progetto finì per fallire. Il mercato attuale è più maturo di allora?
Oggi il mercato è attivo nei settori più disparati, dai giochi al cinema, dalla musica ai Beni Culturali e si sta aprendo anche al campo Turistico. Con l’evoluzione esponenziale delle tecnologie, la “Realtà Aumentata” sta prendendo sempre più piede e gli esperti sono convinti che proprio il 2017 sarà l’anno della svolta, di diffusione più capillare nei mercati, tra i quali quello italiano. Essa permette di aggiungere, infatti, informazioni e contenuti digitali al contesto reale che ci circonda e che stiamo osservando in un dato momento. Questo fa sì che l’esperienza vissuta venga arricchita di informazioni e di contenuti, anche visivi, che ne aumentano la percezione sia intellettiva che emotiva. In pratica, è possibile fruire di una esperienza ‘immersiva’ senza tuttavia perdere il contatto con l’ambiente reale che ci circonda aggiungendo informazioni, suscitando emozioni, sollecitando la nostra memoria e l’apprendimento senza tuttavia condurci in un mondo virtuale – prerogativa questa della “Realtà Virtuale”.
Quale ausilio può fornire, quindi, questa tecnologia al Turismo e alla conoscenza dei Patrimoni Culturali?
È noto che le migliori proposte turistiche in grado di aumentare la permanenza del turista in un dato luogo, sono quelle che consentono agli utenti di entrare in stretto contatto con la realtà territoriale che visitano, in tutti i diversi aspetti della cultura, delle arti, delle tradizioni, anche eno-gastronomiche, del paesaggio, del folclore. Il Turismo si trasforma così da mera visita ad esperienza ‘immersiva’ nel contesto locale e territoriale di permanenza. Tutto questo richiede ovviamente una strategia atta a potenziare tutti i servizi turistici, dall’accoglienza all’accessibilità e raggiungibilità dei luoghi. E necessita anche di azioni e servizi che incrementino la sostenibilità, con l’obiettivo di incentivare le presenze nei diversi status sociali e al contempo ridurre i costi degli esercenti dei servizi al Turismo. In tali scenari le applicazioni della “Realtà Aumentata” possono giocare un ruolo fondamentale, di grande aiuto nella promozione, organizzazione, gestione, incentivazione del Turismo e di fruizione.
Può farci degli esempi di applicazione di questa tecnologia al settore turistico?
Prendiamo ad esempio la fruizione di opere d’arte. Grazie alla “Realtà Aumentata” è possibile incrementare il contenuto informativo per i visitatori che potranno accedere ai diversi aspetti che la caratterizzano: artistici, storici, ambientali, valoriali. Tutto ciò può essere fruito con semplicità, grazie alle più diffuse tecnologie, senza togliere valore al prezioso lavoro delle guide turistiche. Sarà possibile, inoltre, operare una ricostruzione del contesto storico e ambientale di opere antiche o addirittura preistoriche, ben più efficace rispetto alla semplice immaginazione, dettata dalle spiegazioni di una guida. È ovvio che questo consente anche di colmare e superare le difficoltà linguistiche di gruppi eterogenei di turisti provenienti da nazioni diverse. In tal caso disporre di ‘App’ tradotte in più lingue selezionabili dal visitatore, consente alle guide di ottimizzare il proprio lavoro e ai fruitori di poter accedere con maggiore dinamismo ai siti, senza dovere sottostare a rigide schedulazioni di orario. Sarà, infine, possibile migliorare la segnalazione dei percorsi di visita e/o degli oggetti in esposizione, a beneficio della comprensione del “cosa si sta guardando”.
In un futuro non troppo lontano, quindi, questa tecnologia sarà in grado di effettuare un percorso di visita con la competenza di una guida turistica?
Mi preme far rilevare che la disponibilità di applicazioni in “Realtà Aumentata” per la fruizione di Beni Culturali non è intesa come sostitutiva o inibitoria del lavoro delle guide turistiche, ma come un prezioso strumento di affiancamento al loro lavoro o, nei casi in cui per qualsiasi motivo non sia possibile disporre di un operatore-guida, come un potenziamento dell’offerta turistica. Tali applicazioni possono intervenire efficacemente in tutti i diversi processi di governo, promozione, gestione e di controllo inerenti al settore del Turismo e dei Patrimoni Culturali.
Possiamo fare qualche esempio?
Le applicazioni in “Realtà Aumentata” possono essere utilizzate per la promozione e il marketing: ci sono esempi di “chioschi” o “totem” in “Realtà Aumentata” da collocare in location espositive o in punti strategici per l’attrazione e la comunicazione ai turisti; ma si possono anche creare cataloghi, pubblicazioni e cartoline in “Realtà Aumentata”. Un’altra interessante applicazione è possibile nell’ambito della mobilità e dell’accessibilità come utile ausilio per governare e calibrare i flussi, orientare nei percorsi e nei mezzi e servizi disponibili. Non dimentichiamo che spesso i capitali a disposizione sono limitati, pertanto applicazioni in “Realtà Aumentata” possono essere utilizzate per la sostenibilità (economica) segnalando le diverse offerte di servizi al turista, sul territorio, differenziate per prezzo e tipologia di servizi.
A questo possiamo aggiungere azioni di supporto ai processi di programmazione, governo e controllo che, grazie all’integrazione e interazione della “Realtà Aumentata” con altri strumenti tecnologici, saranno in grado di operare un vero cambiamento al concepimento ed attuazione dei piani strategici per il turismo. Voglio far rilevare, ad ogni modo, che è opportuno adottare metodi e strumenti per la fruizione delle applicazioni in “Realtà Aumentata” che tendano ad essere di facile uso e comprensione, che siano accessibili a tutti (sia dal punto di vista strumentale che economico), che forniscano attenzione alla qualità ed affidabilità delle informazioni rese. Queste sfide sono già in atto e altri stimoli ci aspettano nel prossimo futuro. Agli uomini sono sempre piaciute le sfide, l’evoluzione è qualcosa di inarrestabile.
Eppure le verità fondamentali sono sempre state il nocciolo della saggezza di ogni popolo, ogni evoluzione le contiene e le esalta, dopo ulteriori conoscenze si può guardare ad esse con rinnovata curiosità. Credo che anche le tecnologie digitali più spinte sfruttino sempre l’osservazione di ciò che avviene nel cervello dell’Essere Umano. L’Uomo è il bio-computer più perfetto che esista, in grado di entrare in connessione Wireless con i suoi simili, con il mondo animale e vegetale e perfino con le cose inanimate. La sua immaginazione è lo strumento che gli consente di creare nuove idee, di elaborare nuove forme, di rinnovare ogni oggetto. E la “Realtà Aumentata” è quello strumento che costruisce nuove realtà possibili a partire da quella che conosciamo… o che crediamo di conoscere…
See on Augmented World
Set 19, 2017 | News on Augmented, Mixed and Virtual Reality
At the dawn of the Fourth Industrial Revolution, automation and digitization of our worlds and workplace are continuing, changing the job market, the nature of many jobs and even the concept of what it means to be working. Many fear that robots and automation will take their jobs without alternatives. The phenomenon is not new: in the 19th century, members of the Luddite movement – textile workers and weavers – destroyed weaving machinery in protest and fear that machines would take their place in their industry.
Lately, the same fears emerge in healthcare about artificial intelligence taking the jobs of radiologists, robots surpassing the skills of surgeons, or taking jobs in pharma. A renowned voice in tech, Kai-Fu Lee, founder of venture capital firm Sinovation Ventures told CNBC that A.I. will be bigger than all other tech revolutions, and robots are likely to replace 50 percent of all jobs in the next decade. Stephen Hawking even said that the development of full A.I. could spell the end of the human race. Elon Musk agreed.
Is basic income tax the solution? Or turning to coding?
As the fears of losing the battle against new technologies grow exponentially, alternatives on the individual and social level already surfaced. The most popular policy-level concept is the introduction of the universal basic income, in which case the government would give everyone just enough money to live on while creating incentives for individuals to take risks, start businesses, change jobs, return to school or try a new career.
Another idea is the negative income tax, where the state would give the poor money the same way as in the case of taxing rich people; but Bill Gates would tax robots and some economists think the solution lies at the heart of governments creating more jobs.
While these responses for the challenges of automation and digital technologies are only ideas at the moment – except for the national-scale experiment of Finland with universal basic income -, it is natural that people are making steps to secure their own futures. No wonder that so many are considering to give up their current profession and try their luck in programming, coding, and entrepreneurship in general.
As it seems that the hottest professions of the day are those dealing with data science, coding and computing. While many think that it might even be the case in healthcare, I believe that if someone truly pictures himself or herself among medical professionals in the future, other skills, such as the futurist mindset and social skills coupled with sound digital literacy might be more important than coding or entrepreneurial spirit.
The importance of the futurist mindset
I’m not saying that everyone should get a crystal ball and concentrate strongly on what it is trying to say. Yet, it is important to look ahead and continuously monitor the current trends with a notion of how it might affect one’s job, family or environment in general. Personal computers, laptops are only around for a couple of decades, not to speak about the wonder called world wide web! In the 1950s, no one would have thought that a little bit more than 60 years later, the most pursued jobs and skills will be those of the data scientists and coders.
Many jobs that might be around in healthcare in a couple of years, do not exist yet. What if we will have robot companion technicians soon? What about gamification specialists or AR/VR operation planners? While they all might be possible, you cannot really prepare for them only by studying more coding or data science. What everyone needs to understand is that the most important is to familiarize with the latest technologies and prepare for the changes in time.
We have to have meaningful conversations about how such changes affect people and the future generations. For example, the generation born today will play with AI friends and have VR teachers. That might come with a completely different view on the worlds as ours today, so we need to be open, mindful and curious. Just as a futurist!
Social skills and empathy
In healthcare, soft skills such as empathy – and the jobs connected with it will be valued more and more in the future. It makes complete sense. Automation, robots and artificial intelligence will perform certain cognitive tasks brilliantly to the extent that humans will not be able to compete. Where could humans have a chance? At the so-called soft skills: creativity, empathy, compassion and paying attention to each other.
Although artificial intelligence will perform diagnostic tasks or robots might be able to do surgeries, but could they talk to a patient with empathy about the risks and consequences of an operation?
Moreover, as digital health simplifies administration and cuts down on monotonous tasks, the workload of doctors and nurses will be reduced, so they will be able to concentrate on what really matters – healing the patient and guiding him through the entire process with care. I think, eventually, AI would be able to mimic even such soft skills but as we are social beings, we will always need the human touch.
The shift towards jobs requiring soft skills already shows in the numbers. The US Bureau of Labor Statistics predicts that while jobs for doctors and surgeons will rise by 14 per cent between 2014 and 2024, the top three direct-care jobs – personal-care aide, home-health aide, and nursing assistant – are expected to grow by 26 per cent.
However, as Livia Gershon writes here, we seriously need to rethink our perspective towards jobs requiring social skills; as they are usually underpaid and undervalued. As care work and other types of labor containing mainly soft skills cannot contribute to the GDP growth as effectively as other types, the global economic system cannot value it appropriately.
However, as the age of artificial intelligence and robots is coming, soft skills become much more valued and those who plan to enter the social care sector now will reap the benefit of it – not to speak about patients and society in general!
Digital literacy
Although I argue against medical professionals massively going into coding and programming in general, I am certainly not against digital technology and digital literacy. On the contrary! I believe that it is way more important than many other skills in today’s digital world. I only think that it is more relevant to interact and use technology than to understand it down to the tiniest detail. Especially for medical professionals.
Although in the future, it also might change what digital literacy means. Plenty of schools started to incorporate the basics of computer science, coding and programming into their courses. For example, former US President Barack Obama announced a ‘computer science for all’ program for elementary and high schools in the United States. And while I’m all for STEM education, I would be happy to see schools focusing more on voluntary work in helping the elderly or other groups of people in need, as what kids learn there might be more valuable than Python in the future.
While acquiring new skills related to digital technologies, of course, makes sense, in healthcare, it might make even more sense to focus on skills we should have been good at but the nature of our profession didn’t allow it. With disruptive technologies, physicians would finally have time to focus on the patient, deal with challenging decisions and enjoy their profession again.
See on Augmented World
Set 19, 2017 | News on Augmented, Mixed and Virtual Reality
As I am certain that the huge waves of technological change transform the medical professional palette; based on the current and prospective trends in digital health technologies I envisioned what potential new professions could appear in our lives. Don’t miss the first part of the list!
If you have an idea about another new job of the future, please let me know and I will keep on improving the list.
1) No one knows what disease are you suffering from? Ask a healthcare navigator!
Do you remember what the biggest challenge for Hugh Laurie as Doctor House was in the famous series for solving medical mysteries? Yes, you are right, to actually talk to patients and be in close vicinity to people. He would be very pleased to know that in the future, the work of a specialized diagnostician would not involve direct contact with patients if he did not want to.
He could work in a team with actual caregivers, who can provide patients with the adequate amount of attention and care, and with AI algorithms, which would scan through billions of documents within minutes to find the one hidden solution for a very rare medical problem. His job would be to piece together the relevant information and forward it to caregivers with the necessary therapeutic recommendations.
2) Healing will be joy and fun with gamification specialists
Somewhere in the 2040s: Peter and his family was celebrating his wife’s 50th birthday, when he suddenly felt a twitch in his head and fell unconscious. The ambulance came within minutes, and the medical drones helped transport him very quickly to get adequate care. It turned out he had a stroke and his healing process will take several months. After telling him the diagnosis, his physician consulted a gamification specialist about the next steps.
He wanted him to design a treatment with the help of VR/AR, in which Peter could learn to use his left hand again through a strategic computer game. By playing it, he has to climb through walls and collect coins to be able to reach the innermost chamber of a medieval castle. In the next days, the gamification specialist worked on streamlining an existing game to Peter’s needs. The game got ready for the day, when the physician told Peter to start the rehabilitation process.
There are millions of ways, in which gamification could make healthcare more fun and help people at the same time. It already started. Just think about Plant Nanny, the app which helps you drink the right amount of water a day by allowing you to bring up a little plant! Or remember all the fitness wearable challenges out there. Such as the ones offered by Fitbit, which urge you to stay fit by competing with your peers. But the future holds more complex issues in gamification. Coupled with the possibilities in virtual reality or augmented reality, gamification specialists could plan whole personalized games to follow their treatment plan – such as the above.
3) Augmented/virtual reality operation planners for the success of every surgical intervention
Before complex operations, such as implantations or tumor removals, surgeons have to prepare extensively. 3D-printed organs or AR/VR will be of huge assistance in the future. A promising start-up, Medsights Tech already developed a software to test the feasibility of using augmented reality to create accurate 3-dimensional reconstructions of tumours. The complex image reconstructing technology basically empowers surgeons with x-ray views – without any radiation exposure, in real time.
Within 20-30 years, AR/VR operation planners will help surgeons in the preparation for very complex surgical interventions. While the medical professional explains what kind of operation will unfold, the planner visualizes the organs and the whole process through AR/VR. Sounds like a wonderful job for medical geeks, doesn’t it?
4) Reducing suffering and alleviating pain through professionally designed VR therapies
Brennan Spiegel and his team at the Cedars-Sinai hospital in Los Angeles introduced VR worlds to their patients to help them release stress and reduce pain. With the special goggles, they could escape the four walls of the hospital. They are able to visit amazing landscapes in Iceland, participate in the work of an art studio or swim together with whales in the deep blue ocean. A similar project called Farmoo helps teen cancer patients get distracted during chemotherapy treatments.
In the future, VR therapy designers could use the immense potential in VR for alleviating pain and reducing suffering. Especially for patients, who have to combat mental illnesses such as PTSD, phobias or other psychological disorders. VR therapy designers will be experts in psychology as well as in VR design. Their aim will be to create the adequate, personalized virtual environments and programs for patients to get through the worst periods of their lives with the most help possible.
5) With the rise of nanosolutions, nanomedical engineers will be in huge demand
Somewhere in the 2030s: Lora had been feeling dizzy for a while. She could not explain her fever at nights, why she had been losing weight or why she was sweating a lot at night. Her smartphone got an appointment at her GP’s office and after a couple of exams it turned out she had lymphoma. She was shocked, but her doctor reassured her that in such an early stage the disease could be treated.
Afterwards, the physician consulted with a nanomedicine engineer who offered a great solution. He worked out a personalized therapy consisting of chemotherapy molecules applied to nanocages. Lora had to go to her doctor for an injection treatment, and these nanocages were injected into her body. Then, the tiny chemotherapy molecules exerted their effect only if they “bumped” into cancerous cells; and the lymphoma was cured way more efficiently and with much less pain and inconvenience.
The rise of nanotechnology is just around the corner, so highly targeted oncology treatments and medical professionals, who are able to substantially design and plan such personalized therapies, will be in demand very soon.
6) Do you have trouble with sending data from your home sensors to your smartphone? Ask an internet of healthy things connector!
Somewhere in the 2040s: similarly to every other family in the suburban Quebec neighborhood, Eva and her husband had a network of smart sensors at home. For example, they used CubeSensors – small, very simply designed cubes all over their house. The smart cubicle measured air quality, temperature, humidity, noise, light, air pressure. Based on their personal information it adjusted the relevant factors for optimizing their well-being at home. Similarly, Eva and her husband had a swarm of wearables for sleep tracking, fitness activities and measuring vital health parameters. So when she suddenly felt ill, she wanted to send all the supporting data to the AI medical assistant to help the smart algorithm analyse the data in minutes and figure out the diagnosis without bothering an actual doctor.
But she was simply unable to put the data together due to compatibility issues. So she called an internet of healthy things connector, a technologist with a sense of medicine. He was able to fix the compatibility problem. Moreover, he also helped in designing the appropriate digital health solutions between smart sensors used at home and everyday healthcare. In the future, a swarm of such technicians will populate the field of digital healthcare.
7) Do you have trouble in getting from A to B in the healthcare jungle? Hire a patient assistant!
Somewhere in the 2030s: Emily was born as a healthy, curious little baby girl. The problems started when she went to primary school. Her mother realized that Emily acted hyperactively, had a very hard time focusing on tasks, had a supersensitive self and suffered a lot from her environment. But what to do in this situation? She didn’t know any medical professional, she had no experience in the field of psychology or psychiatry. And as she was searching in her laptop about potential medical solutions or therapies to ask about, a Google ad popped up on her screen. Hire a patient assistant!
She called the indicated number and a friendly female voice replied. They arranged a meeting, talked about the situation and the patient assistant crafted various possible patient routes to follow. The nice lady had extensive medical background, a thorough knowledge about the healthcare system – together with how to solve insurance troubles -, as well as an extensive network. Emily’s mother was relieved that her little girl got into the right hands. I am wondering why there is no such service today. Where are the patient assistants? I hope they will appear as soon as possible in the healthcare system.
8) End-of-life therapists will prepare patients for death
In his thought-provoking critique of society, God Bless You, Mr. Rosewater, Kurt Vonnegut explains that in the future, as all serious diseases had been conquered, death became voluntary and the government, to encourage volunteers for death, set up a purple-roofed Ethical Suicide Parlor at every major intersection. While it is obviously a satire, it taps into the very difficult question how we will handle death in the future. And how our attitude towards death will change gradually.
People will live a longer, healthier life and although it is currently unimaginable, it might become a reality that they will actually be able to decide about their own death. As it is such a huge psychological burden, which we are not able to process, we will need therapists specialized in death. These psychologists could help prepare for death; help those who decide when they want to end their life and also those who decide they choose to live on synthetically by e.g. uploading their consciousness to a computer.
9) Does your cyborg neighbor complain constantly about his life? Send him to a cyborg therapist!
Neil Harbisson lives with a specialized electronic eye, rendering perceived colours as sounds on the musical scale. Dr. Kevin Warwick installed a microchip in his arm, which lets him operate heaters, computers and lights remotely. Jesse Sullivan became a cyborg when he got equipped with a bionic limb, which was connected through nerve-muscle grafting. Cyborgs are already living with us, and there is going to be more and more people with implanted sensors, prosthetics, neuroprosthetics or bioprinted organs.
I know that it is already mind-blowing for some people to read about cyborgs living among us. Then imagine how difficult it is going to be to process the whole phenomenon in the future. That’s the reason why we will need professionals: cyborg therapists who will offer help for people living as cyborgs to integrate into society successfully.
10) Health data analysts wanted for making sense of big data!
With the evolution of digital capacity, more and more data is produced and stored in the digital space. The amount of available digital data is growing by a mind-blowing speed, doubling every two year. In 2013, it encompassed 4.4 zettabytes, however by 2020 the digital universe will reach 44 zettabytes, or 44 trillion gigabytes (!). Besides, with the availability of cheap genome sequencing, gazillion of wearables, healthcare trackers and home sensors, as well as other methods for obtaining data about our health, huge amounts of medical data will be created.
In the future, health data analysts will be in huge demand to constantly analyse big health data, bring them to the same platform, convert them and interpret them adequately. Even dealing with data when the patient brings their sensors’ measurements to the GP’s practice will involve the work of data analysists.
11) People with paralysis will get help from brain-computer interface designers!
Somewhere in the 2050s: Edward had a serious car accident, when his driverless car could not brake in time in the ice storm. It was one of the biggest accidents in years in the UK. He survived it, but he suffered a spinal cord injury and could not move his legs or hands anymore. However, with the help of brain-computer interfaces (BCIs) connected to various devices, he is able to carry out specific actions. BCIs made him able to still have some control over his life and his environment after he had lost his ability to move around.
BCIs acquire brain signals, analyse them, and translate them into commands that are relayed to output devices that carry out desired actions. Their main goal is to replace or restore useful function to people disabled by neuromuscular disorders such as amyotrophic lateral sclerosis, cerebral palsy, stroke, or spinal cord injury. In the future, the design of such delicate interfaces will require specialists passionately working on BCIs during their whole workday.
Did I blow your mind with my predictions? I hope you have also seen the first part of our article series, where I described the future tasks of organ designers, robot companion engineers or telesurgeons. Are you skeptical about the current healthcare trends and where they are leading us? Don’t be. Rather prepare for the huge changes in medical health by subscribing to my newsletter and following the trends here.
See on Augmented World
Set 11, 2017 | News on Augmented, Mixed and Virtual Reality
Nelle campagne inglesi un campo è stato coltivato, dalla semina al raccolto, solo con mezzi autonomi, droni e robot. Il preludio all’estinzione dei contadini?
Con la guida autonoma e la robotizzazione saranno molti i lavori che spariranno o che, comunque, verranno ridimensionati. Tra questi c’è anche quello dell’agricoltore. Non ne siete convinti? Posate la zappa e leggete. Un gruppo di ricercatori di Shropshire, in Inghilterra, è riuscito a seminare e raccogliere un campo di orzo usando soltanto robot. Nessun umano, insomma, ha messo piede nel campo.
Sebbene oggi siano molti i passaggi automatizzati dell’agricoltura, di rado lo è l’intero processo, dalla semina alla cura per passare al monitoraggio e infine alla raccolta. Il progetto “Hands-Free Hectare” ha preso il via lo scorso ottobre grazie a un team dell’università Harper Adams e ha ricevuto un finanziamento dal governo britannico di 200.000 sterline.
Gli studiosi hanno modificato un trattore e una mietitrebbiatrice dotandoli di telecamere, laser e sistemi GPS. Droni e un robot “scout”, capaci di prelevare campioni di terreno, hanno aiutato i ricercatori a monitorare il campo da lontano (su Youtube potete vedere diversi video dei macchinari all’opera).
Kit Franklin, a capo del progetto e ingegnere agrario, ha ammesso che si è trattato dell’ettaro di orzo più costoso di sempre, ma anche che, battute a parte, è un assaggio di quello che verrà.
“L’automazione è il futuro dell’agricoltura, ma siamo in una fase in cui le macchine agricole hanno dimensioni decisamente insostenibili”, ha detto Franklin al Times. Secondo lui l’agricoltura si appoggerà a veicoli più piccoli e intelligenti, che potranno lavorare con maggiore precisione senza danneggiare il suolo e di conseguenza l’andamento delle successive colture.
Anche se il progetto è andato a buon fine, non sono mancate le difficoltà. Il trattore non è riuscito a mantenere una linea rettilinea nel campo, quindi la semina è avvenuta in modo poco uniforme. Inoltre il team ha faticato a modificare rapidamente il trattore per l’irrorazione. Kieran Walsh, agronomo, ha anche espresso difficoltà nel controllare un campo tramite un video.
Insomma, forse il “contadino” non sparirà del tutto, ma dovrà evolversi: dovrà saper controllare i robot e capire se funzionano in modo corretto. Per diverso tempo le “macchine” non saranno in grado di sostituire quella capacità unica di capire e conoscere la terra che contraddistingue ogni agricoltore, ma anche quel traguardo verrà raggiunto prima o poi.
L’intelligenza artificiale sarà la chiave. Spesso ne scriviamo parlando automobili, ma l’IA troverà spazio anche in agricoltura, tanto che nelle scorse ore la John Deere ha acquistato per 305 milioni di dollari Blue River Technology, startup nata nel 2011 a Sunnyvale (California) specializzata nell’agricoltura di precisione.
Blue River Technology ha creato, tra gli altri, un sistema che si avvale del machine learning e della computer vision per ottimizzare l’uso dei pesticidi, che potranno così essere irrorati in modo più mirato. John Deere ha tutta l’intenzione di integrare questa e altre soluzioni sulle proprie macchine.
See on Augmented World
Set 11, 2017 | News on Augmented, Mixed and Virtual Reality
C’è chi prosegue il loro sviluppo in maniera spasmodica e c’è chi, invece, ci mette in guardia circa la loro potenziale pericolosità nei nostri confronti. Stiamo parlando delle intelligenze artificiali, piattaforma di machine learning sulle quali si basano ormai la maggior parte dei servizi online.
Paradossalmente però, nell’essere molto intelligenti nel fare determinate cose, le attuali versioni sono molto “stupide” nel farne altre. Infatti, all’infuori del loro campo di azione, sono del tutto inutili. Per cercare di correggere il tiro, Microsoft e Facebook hanno annunciato di aver collaborato negli scorsi mesi creando la piattaforma open source Open Neural Network Exchange, abbreviata in ONNX.
Essa è il frutto dell’interazione di MS Cognitive Toolkit, FB Caffe2 e FB PyTorch (in futuro potrebbero unirsene di nuove. Il suo scopo ultimo invece è quello di fornire una flessibilità maggiore a tutti quegli scienziati che necessitano di specifici tipi di calcolo (potendo utilizzare per ogni task una piattaforma diversa) oppure ai produttori di hardware che possono aggiornare con velocità più framework in una volta sola.
ONNX LANCIA LA SFIDA A TENSORFLOW
Al momento non sono stati pubblicizzati dei progetti importanti che fanno uso della piattaforma ONNX (il codice su Github è stato appena pubblicato). Probabilmente però è solo una questione di settimane, visto il processo di sviluppo sempre più rapido.
La cosa interessante di ONNX è la grande concorrenza e pressione che mette a TensorFlow, il framework proposto da Google ormai da qualche anno(anch’esso open source). Vedremo se le due piattaforme continueranno a concorrere oppure se vi sarà una fusione.
See on Augmented World