<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>apprendimento automatico Archivi - Osservatorio C Quadra</title>
	<atom:link href="https://osservatorio.c-quadra.it/tag/apprendimento-automatico/feed/" rel="self" type="application/rss+xml" />
	<link>https://osservatorio.c-quadra.it/tag/apprendimento-automatico/</link>
	<description>Osservatorio Innovazione</description>
	<lastBuildDate>Tue, 28 Sep 2021 07:34:55 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.1</generator>

<image>
	<url>https://osservatorio.c-quadra.it/wp-content/uploads/2020/10/cropped-CQ-Nero-1-32x32.jpg</url>
	<title>apprendimento automatico Archivi - Osservatorio C Quadra</title>
	<link>https://osservatorio.c-quadra.it/tag/apprendimento-automatico/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Reti neurali ed ambiziosi obiettivi di traduzione geroglifica</title>
		<link>https://osservatorio.c-quadra.it/reti-neurali-ed-ambiziosi-obiettivi-di-traduzione-geroglifica/</link>
					<comments>https://osservatorio.c-quadra.it/reti-neurali-ed-ambiziosi-obiettivi-di-traduzione-geroglifica/#respond</comments>
		
		<dc:creator><![CDATA[REDAZIONE]]></dc:creator>
		<pubDate>Tue, 28 Sep 2021 08:00:15 +0000</pubDate>
				<category><![CDATA[INNOVAZIONE]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[apprendimento automatico]]></category>
		<category><![CDATA[archeologia]]></category>
		<category><![CDATA[codifica]]></category>
		<category><![CDATA[deep learning]]></category>
		<category><![CDATA[geroglifici]]></category>
		<category><![CDATA[machine learning]]></category>
		<category><![CDATA[reti neurali convoluzionali]]></category>
		<category><![CDATA[scienze umanistiche]]></category>
		<category><![CDATA[traduzione automatica]]></category>
		<guid isPermaLink="false">https://osservatorio.c-quadra.it/?p=25954</guid>

					<description><![CDATA[<p><img width="1920" height="1280" src="https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="" decoding="async" fetchpriority="high" srcset="https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash.jpg 1920w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash-300x200.jpg 300w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash-1024x683.jpg 1024w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash-768x512.jpg 768w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash-1536x1024.jpg 1536w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash-150x100.jpg 150w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash-696x464.jpg 696w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash-1392x928.jpg 1392w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash-1068x712.jpg 1068w" sizes="(max-width: 1920px) 100vw, 1920px" /></p>
<p>Sappiamo che le reti neurali convoluzionali, sono strumenti estremamente potenti: più volte, abbiamo descritto come il riconoscimento e l’analisi automatica di grandi set di immagini, possa raggiungere i fini più disparati. Dalla creazione di ologrammi 3D in tempo reale, alla messa a punto di speciali strumenti di diagnosi e prevenzione, l’uso delle pratiche di deep [&#8230;]</p>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/reti-neurali-ed-ambiziosi-obiettivi-di-traduzione-geroglifica/">Reti neurali ed ambiziosi obiettivi di traduzione geroglifica</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><img width="1920" height="1280" src="https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="" decoding="async" srcset="https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash.jpg 1920w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash-300x200.jpg 300w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash-1024x683.jpg 1024w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash-768x512.jpg 768w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash-1536x1024.jpg 1536w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash-150x100.jpg 150w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash-696x464.jpg 696w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash-1392x928.jpg 1392w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/09/jeremy-bezanger-xQigPR4-4Bc-unsplash-1068x712.jpg 1068w" sizes="(max-width: 1920px) 100vw, 1920px" /></p><p><b>Sappiamo che le </b><b>reti neurali convoluzionali</b><b>, sono strumenti estremamente potenti: più volte, abbiamo descritto come il riconoscimento e l’analisi automatica di grandi set di immagini, possa raggiungere i fini più disparati.</b> Dalla <a href="https://osservatorio.c-quadra.it/sono-finalmente-arrivati-gli-ologrammi-3d-generati-in-tempo-reale/">creazione di ologrammi 3D in tempo reale</a>, alla messa a punto di speciali strumenti di diagnosi e prevenzione, l’uso delle pratiche di deep learning si sta profondamente affermando in qualsiasi ambito scientifico.</p>
<p><b>Ora, ha senso applicare le stesse metodologie di ricerca, anche alle scienze umanistiche?<span class="Apple-converted-space"> </span></b></p>
<p>A tal proposito, avevamo già scritto del <b>progetto</b><b> </b><a href="https://osservatorio.c-quadra.it/tecnologie-per-i-beni-culturali-ai-alla-scoperta-di-nuovi-siti-archeologici/"><b>Cultural Landscapes Scanner</b></a><b>, dove i ricercatori dell’IIT &#8211; </b><a href="https://www.iit.it/it/"><b>Istituto Italiano di Tecnologia </b></a><b>puntavano ad identificare &#8211; utilizzando speciali algoritmi ed immagini satellitari &#8211; nuovi siti archeologici. </b>Mentre tal intenzione presenta ancora molte criticità ed un lungo lavoro di ricerca e sviluppo, <b>oggi parliamo delle più tangibili opportunità illustrate nella pubblicazione &#8220;</b><b><a href="https://ieeexplore.ieee.org/abstract/document/9528382">A Deep Learning Approach to Ancient Egyptian Hieroglyphs Classification</a>&#8220;</b>.<span class="Apple-converted-space"> </span></p>
<p>Lo studio, frutto di una <b>collaborazione tra il </b><a href="https://www.cnr.it"><b>Consiglio Nazionale delle Ricerche</b></a><b>, l’</b><a href="https://www.unifi.it"><b>Università degli Studi di Firenze</b></a><b> e il </b><a href="https://camnes.it"><b>Center for Ancient Mediterranean and Near Eastern Studies &#8211; CAMNES</b></a><b>, </b>descrive la <b>concreta prospettiva di codifica, riconoscimento e traslitterazione dei segni geroglifici grazie all’addestramento puntuale di una rete neurale. </b>Ad oggi, i ricercatori hanno testato la capacità del sistema di identificare e classificare singoli ideogrammi, ottenendo risultati estremamente promettenti, tanto da poter far sperare in una sua <b>futura capacità di traduzione automatica</b>.<span class="Apple-converted-space"> </span></p>
<blockquote class="twitter-tweet" data-width="550" data-dnt="true">
<p lang="it" dir="ltr"><a href="https://twitter.com/hashtag/IntelligenzaArtificiale?src=hash&amp;ref_src=twsrc%5Etfw">#IntelligenzaArtificiale</a> per il riconoscimento automatico dei geroglifici egizi<br />Studio di <a href="https://twitter.com/hashtag/Cnr_Ifac?src=hash&amp;ref_src=twsrc%5Etfw">#Cnr_Ifac</a> <a href="https://twitter.com/UNI_FIRENZE?ref_src=twsrc%5Etfw">@UNI_FIRENZE</a> e <a href="https://twitter.com/CAMNES?ref_src=twsrc%5Etfw">@CAMNES</a> evidenzia come il <a href="https://twitter.com/hashtag/DeepLearning?src=hash&amp;ref_src=twsrc%5Etfw">#DeepLearning</a> possa essere adoperato per classificare l’antica scrittura geroglifica egizia<br />Scopri di più al link👇<a href="https://t.co/ApTj9qo1c8">https://t.co/ApTj9qo1c8</a> <a href="https://t.co/pluNuFD2UB">pic.twitter.com/pluNuFD2UB</a></p>
<p>&mdash; CNR Consiglio Nazionale delle Ricerche (@CNRsocial_) <a href="https://twitter.com/CNRsocial_/status/1438842831792189450?ref_src=twsrc%5Etfw">September 17, 2021</a></p></blockquote>
<p><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<p>Tanta multidisciplinarità ha permesso lo sviluppo di questo progetto: primo autore dello studio pubblicato è <a href="https://www.linkedin.com/in/andrea-barucci-7117a333?lipi=urn%3Ali%3Apage%3Ad_flagship3_profile_view_base_contact_details%3B4amEgy5YTTimAgqBc30dGQ%3D%3D"><b>Andrea Barucci</b></a><strong>, esperto analista di immagini biomediche con tecniche di machine e deep learning, collega della ricercatrice</strong> <a href="https://www.linkedin.com/in/costanza-cucci-87796327?lipi=urn%3Ali%3Apage%3Ad_flagship3_profile_view_base_contact_details%3BAIcmyk%2BtSsGReTpNa7yARg%3D%3D"><b>Costanza Cucci</b></a> all’<a href="http://www.ifac.cnr.it"><b>Istituto di Fisica Applicata IFAC-CNR</b></a>. Dal Centro Studi CAMNES, ha partecipato l’<strong>egittologo e filologo</strong> <a href="https://camnes.it/massimiliano-franci"><b>Massimiliano Franci</b></a>, mentre dal <a href="https://www.dinfo.unifi.it"><b>Dipartimento di Ingegneria dell’Informazione </b></a><b>dell’Università di Firenze, </b><b>Marco Loschiavo </b><b>e</b><b> Fabrizio Argenti:</b></p>
<blockquote class="td_pull_quote td_pull_center"><p>Dal punto di vista ingegneristico eravamo sicuri delle potenzialità degli strumenti di analisi scelti, tuttavia questo era un banco di prova importante, essendo un tipo di applicazione completamente diverso. Abbiamo voluto esplorare un ambito di ricerca nuovo, che si è rivelato estremamente interessante e promettente.</p></blockquote>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/reti-neurali-ed-ambiziosi-obiettivi-di-traduzione-geroglifica/">Reti neurali ed ambiziosi obiettivi di traduzione geroglifica</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://osservatorio.c-quadra.it/reti-neurali-ed-ambiziosi-obiettivi-di-traduzione-geroglifica/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Deep learning ed immagini: quali le applicazioni possibili?</title>
		<link>https://osservatorio.c-quadra.it/deep-learning-ed-immagini-quali-le-applicazioni-possibili/</link>
					<comments>https://osservatorio.c-quadra.it/deep-learning-ed-immagini-quali-le-applicazioni-possibili/#respond</comments>
		
		<dc:creator><![CDATA[REDAZIONE]]></dc:creator>
		<pubDate>Thu, 17 Jun 2021 09:49:22 +0000</pubDate>
				<category><![CDATA[INNOVAZIONE]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[animazioni]]></category>
		<category><![CDATA[apprendimento automatico]]></category>
		<category><![CDATA[deep learning]]></category>
		<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[olografia tensoriale]]></category>
		<category><![CDATA[ologrammi]]></category>
		<category><![CDATA[videogame]]></category>
		<guid isPermaLink="false">https://osservatorio.c-quadra.it/?p=25562</guid>

					<description><![CDATA[<p><img width="1920" height="1280" src="https://osservatorio.c-quadra.it/wp-content/uploads/2021/06/delaney-van-Su8XEGdYS34-unsplash.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="" decoding="async" srcset="https://osservatorio.c-quadra.it/wp-content/uploads/2021/06/delaney-van-Su8XEGdYS34-unsplash.jpg 1920w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/06/delaney-van-Su8XEGdYS34-unsplash-300x200.jpg 300w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/06/delaney-van-Su8XEGdYS34-unsplash-1024x683.jpg 1024w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/06/delaney-van-Su8XEGdYS34-unsplash-768x512.jpg 768w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/06/delaney-van-Su8XEGdYS34-unsplash-1536x1024.jpg 1536w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/06/delaney-van-Su8XEGdYS34-unsplash-150x100.jpg 150w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/06/delaney-van-Su8XEGdYS34-unsplash-696x464.jpg 696w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/06/delaney-van-Su8XEGdYS34-unsplash-1392x928.jpg 1392w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/06/delaney-van-Su8XEGdYS34-unsplash-1068x712.jpg 1068w" sizes="(max-width: 1920px) 100vw, 1920px" /></p>
<p>Il prossimo 22 giugno, verrà presentato alla Conference on Computer Vision and Pattern Recognition un nuovo metodo di apprendimento profondo, messo a punto da un team di ricercatori della University of Washington, dedicato all’animazione automatica di singole immagini fotografiche. La ricerca, finanziata oltre che dal UW Reality Lab, anche da Facebook, Google, Futurewai ed Amazon, [&#8230;]</p>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/deep-learning-ed-immagini-quali-le-applicazioni-possibili/">Deep learning ed immagini: quali le applicazioni possibili?</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Il prossimo 22 giugno, verrà presentato alla <a href="http://cvpr2021.thecvf.com"><b>Conference on Computer Vision and Pattern Recognition</b></a><b> un nuovo metodo di apprendimento profondo, messo a punto da un team di ricercatori della <a href="http://www.washington.edu">University of Washington</a></b><b>, dedicato all’animazione automatica di singole immagini fotografiche</b>.</p>
<p><b>La ricerca</b>, finanziata oltre che dal <a href="https://realitylab.uw.edu"><b>UW Reality Lab</b></a>, anche da Facebook, Google, Futurewai ed Amazon, <b>si era prefissata lo scopo di creare animazioni partendo da un’immagine statica ed unica, senza alcun input esterno od aggiuntivo</b>. Insomma, si voleva usare il deep learning per trasformare una foto… in un video.<span class="Apple-converted-space"> </span></p>
<p>Nella fase attualmente raggiunta, <b>la rete neurale addestrata riesce ad animare qualsiasi oggetto o materiale abbia un’evoluzione fluida, quindi nuvole, corsi d’acqua, colonne di fumo, cascate</b>. Il sistema opera delle previsioni in base a come si muoverebbero realmente questi elementi, grazie alle informazioni acquisite direttamente dall’immagine di partenza.<span class="Apple-converted-space"> </span></p>
<p><b>Gli scienziati hanno addestrato la rete mediante l’analisi di migliaia di video di panorami naturali</b>, così che l’algoritmo potesse apprendere come eventuali increspature prevedono l’andamento di uno scroscio d’acqua o come le forme delle nubi preannunciano un loro dissolvimento. <b>Il risultato finale è un breve video in alta definizione, che si ripete in loop, dando l’impressione di un morbido movimento infinito</b>.</p>
<p><img loading="lazy" decoding="async" class=" td-center td-modal-image aligncenter wp-image-25568 size-full" src="https://osservatorio.c-quadra.it/wp-content/uploads/2021/06/Snoq-GIF.gif" alt="" width="600" height="437" /></p>
<p style="text-align: center;">📸<span style="color: #999999;"> &#8211; Sarah McQuate, University of Washington</span></p>
<p><b>I ricercatori, guidati dal dottorando</b> <b>Aleksander Hołyński</b>, come prossimo step,<b> puntano ad applicare queste animazioni alle persone</b>, generando il movimento dei capelli che fluttuano al vento, l&#8217;oscillazione di un piede o un battito di ciglia.<span class="Apple-converted-space"> </span></p>
<p>Sempre rimanendo nella sfera dell’apprendimento profondo, <b>avevamo già parlato nello scorso mese di Marzo degli studi del </b><a href="https://www.mit.edu"><b>Massachusetts Institute of Technology</b></a><b> riguardanti la creazione di </b><a href="https://osservatorio.c-quadra.it/sono-finalmente-arrivati-gli-ologrammi-3d-generati-in-tempo-reale/"><b>ologrammi 3D</b> <b>in tempo reale</b></a>,<b> </b>sempre addestrando la rete neurale con grandi set di informazioni.<span class="Apple-converted-space"> </span></p>
<p><strong>M</strong><b>olte sono le ricerche attualmente in corso che vanno a concentrarsi sul miglioramento del fotorealisimo</b>. <a href="https://www.intel.it/content/www/it/it/homepage.html"><b>Intel</b></a>, per esempio, <b>ha recentemente mostrato quanto possa essere efficace l’azione del machine learning su immagini digitali, prendendo in prestito le grafiche del famosissimo videogame <a href="https://www.rockstargames.com/V/it">Grand Theft Auto V</a></b>. Sfruttando una rete neurale convoluzionale ispirata a processi biologici visivi ed utilizzando un grande database di immagini ad alta risoluzione di una cittadina tedesca, <b>la rete è riuscita a sostituire in tempo reale i vari elementi scenici con quelli realistici</b>, ottenendo un risultato sorprendente.<span class="Apple-converted-space"> </span></p>
<div class="youtube-embed" data-video_id="P1IcaBn3ej0"><iframe loading="lazy" title="Enhancing Photorealism Enhancement" width="696" height="392" src="https://www.youtube.com/embed/P1IcaBn3ej0?feature=oembed&#038;enablejsapi=1" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></div>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/deep-learning-ed-immagini-quali-le-applicazioni-possibili/">Deep learning ed immagini: quali le applicazioni possibili?</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://osservatorio.c-quadra.it/deep-learning-ed-immagini-quali-le-applicazioni-possibili/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Sono (finalmente) arrivati gli ologrammi 3D generati in tempo reale</title>
		<link>https://osservatorio.c-quadra.it/sono-finalmente-arrivati-gli-ologrammi-3d-generati-in-tempo-reale/</link>
					<comments>https://osservatorio.c-quadra.it/sono-finalmente-arrivati-gli-ologrammi-3d-generati-in-tempo-reale/#respond</comments>
		
		<dc:creator><![CDATA[REDAZIONE]]></dc:creator>
		<pubDate>Tue, 30 Mar 2021 08:00:48 +0000</pubDate>
				<category><![CDATA[INNOVAZIONE]]></category>
		<category><![CDATA[3D]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[apprendimento automatico]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[olografia]]></category>
		<category><![CDATA[olografia tensoriale]]></category>
		<category><![CDATA[ologrammi]]></category>
		<category><![CDATA[realtà virtuale]]></category>
		<category><![CDATA[VR]]></category>
		<guid isPermaLink="false">https://osservatorio.c-quadra.it/?p=25096</guid>

					<description><![CDATA[<p><img width="2560" height="1502" src="https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="" decoding="async" loading="lazy" srcset="https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671.jpg 2560w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-300x176.jpg 300w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-1024x601.jpg 1024w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-768x451.jpg 768w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-1536x901.jpg 1536w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-2048x1202.jpg 2048w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-150x88.jpg 150w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-696x408.jpg 696w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-1392x817.jpg 1392w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-1068x627.jpg 1068w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-1920x1127.jpg 1920w" sizes="auto, (max-width: 2560px) 100vw, 2560px" /></p>
<p>La chiave di volta per la realtà virtuale potrebbe risiedere in una tecnologia vecchia di 60 anni: l’olografia.  Gli ologrammi regalano un’eccezionale rappresentazione del mondo 3D e, cosa più importante, offrono una prospettiva mutevole in base alla posizione dello spettatore, consentendo all’occhio di regolare la profondità, mettendo a fuoco alternativamente il primo piano piuttosto che [&#8230;]</p>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/sono-finalmente-arrivati-gli-ologrammi-3d-generati-in-tempo-reale/">Sono (finalmente) arrivati gli ologrammi 3D generati in tempo reale</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">La </span><b>chiave di volta per la realtà virtuale </b><span style="font-weight: 400;">potrebbe risiedere in una tecnologia vecchia di 60 anni: </span><b>l’olografia</b><span style="font-weight: 400;">. </span></p>
<p><b>Gli ologrammi</b><span style="font-weight: 400;"> regalano un’eccezionale rappresentazione del mondo 3D e, cosa più importante, </span><b>offrono una prospettiva mutevole in base alla posizione dello spettatore, consentendo all’occhio di regolare la profondità</b><span style="font-weight: 400;">, mettendo a fuoco alternativamente il primo piano piuttosto che lo sfondo. </span></p>
<p><span style="font-weight: 400;">Partendo da questo, </span><b>i ricercatori del </b><a href="https://www.mit.edu"><b>Massachusetts Institute of Technology</b></a><b>, hanno generato ologrammi 3D in tempo reale avvalendosi di una rete neurale convoluzionale</b><span style="font-weight: 400;">, una tecnica di elaborazione che utilizza una catena di tensori addestrabili, per imitare approssimativamente il modo in cui gli esseri umani elaborano le informazioni visive. In altre parole, hanno generato immagini 3D tramite una </span><b>simulazione ottica creata grazie all’intelligenza artificiale</b><span style="font-weight: 400;">. </span></p>
<p><span style="font-weight: 400;">L’addestramento della sopracitata rete neurale è avvenuta attraverso un </span><b>set di big data creato ad hoc per la ricerca</b><span style="font-weight: 400;">, basato su “scene con forme e colori complessi e variabili”. Il team di ricerca tramite l’utilizzo di 4.000 coppie d’immagini, l’ologramma corrispondente e le informazioni specifiche su colore e profondità delle onde luminose, è riuscito a sviluppare una sorta di configurazione ottica. “Imparando” da ogni coppia di immagini precaricata, </span><b>la rete ha modificato i propri parametri di calcolo, migliorando così la capacità di generare ologrammi, ottimizzando di volta in volta il risultato finale</b><span style="font-weight: 400;">.</span></p>
<p>&nbsp;</p>
<p><img loading="lazy" decoding="async" class="alignnone size-full wp-image-25100" src="https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset.jpg" alt="" width="2011" height="1061" srcset="https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset.jpg 2011w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset-300x158.jpg 300w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset-1024x540.jpg 1024w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset-768x405.jpg 768w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset-1536x810.jpg 1536w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset-150x79.jpg 150w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset-696x367.jpg 696w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset-1392x734.jpg 1392w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset-1068x563.jpg 1068w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset-1920x1013.jpg 1920w" sizes="auto, (max-width: 2011px) 100vw, 2011px" /><i><span style="font-weight: 400;">Esempio di immagini contenute nel database usato dai ricercatori</span></i></p>
<p>&nbsp;</p>
<p><b>L’efficienza e la velocità raggiunta &#8211; pochi millisecondi per ologramma &#8211; ha sorpreso gli stessi componenti del team</b><span style="font-weight: 400;">, aprendo molteplici &#8211; seppur ipotetici &#8211; scenari di applicazione. Joel Kollin, uno dei principali optical architect di Microsoft, anche se non coinvolto nella ricerca, ha suggerito la possibilità di personalizzare queste visualizzazioni in base alla prescrizione oftalmica di uno spettatore, creando così immagini più nitide di quelle che egli sarebbe in grado di vedere con l’utilizzo di occhiali di correzione per aberrazioni di basso ordine. </span></p>
<p><b>L’olografia 3D in tempo reale potrebbe migliorare una serie di sistemi, dalla stampa 3D volumetrica, alla microscopia, fino ad arrivare alla VR</b><span style="font-weight: 400;">. Il team, guidato da </span><a href="http://people.csail.mit.edu/liangs/"><b>Liang Shi</b></a><b>, autore della ricerca e dottorando presso l’</b><a href="https://www.eecs.mit.edu"><b>EECS &#8211; Dipartimento di ingegneria ed informatica del MIT</b></a><span style="font-weight: 400;">, ha affermato che questo nuovo sistema potrebbe immergere gli spettatori VR in scenari più realistici, eliminando l’affaticamento agli occhi e gli altri effetti collaterali legati all’uso della realtà virtuale a lungo termine. </span></p>
<p><span style="font-weight: 400;">La tecnologia potrebbe essere facilmente implementata su display che modulano non solo la luminosità delle onde luminose, ma anche la loro fase e ipoteticamente potrebbe già essere messa a punto per gli ultimi modelli di smartphone. </span><span style="font-weight: 400;">Il lavoro di ricerca è stato supportato in parte anche da </span><span style="font-weight: 400;">SONY</span><span style="font-weight: 400;">. </span></p>
<p>&nbsp;</p>
<p><i><span style="font-weight: 400;">Per approfondire:</span></i></p>
<p><i><span style="font-weight: 400;">Shi, L., Li, B., Kim, C. et al. (2021) Towards real-time photorealistic 3D holography with deep neural networks. Nature 591, 234–239 </span></i><a href="https://doi.org/10.1038/s41586-020-03152-0"><i><span style="font-weight: 400;">https://doi.org/10.1038/s41586-020-03152-0</span></i></a></p>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/sono-finalmente-arrivati-gli-ologrammi-3d-generati-in-tempo-reale/">Sono (finalmente) arrivati gli ologrammi 3D generati in tempo reale</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://osservatorio.c-quadra.it/sono-finalmente-arrivati-gli-ologrammi-3d-generati-in-tempo-reale/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Innovazioni in cardiologia: il rischio di infarto si combatte con l’AI</title>
		<link>https://osservatorio.c-quadra.it/innovazioni-in-cardiologia-il-rischio-di-infarto-si-combatte-con-lai/</link>
					<comments>https://osservatorio.c-quadra.it/innovazioni-in-cardiologia-il-rischio-di-infarto-si-combatte-con-lai/#respond</comments>
		
		<dc:creator><![CDATA[REDAZIONE]]></dc:creator>
		<pubDate>Fri, 05 Feb 2021 09:00:05 +0000</pubDate>
				<category><![CDATA[HEALTH & SPORT]]></category>
		<category><![CDATA[apprendimento automatico]]></category>
		<category><![CDATA[cardiologia]]></category>
		<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[machine learning]]></category>
		<category><![CDATA[prevenzione]]></category>
		<guid isPermaLink="false">https://osservatorio.c-quadra.it/?p=24762</guid>

					<description><![CDATA[<p><img width="2048" height="1356" src="https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="" decoding="async" loading="lazy" srcset="https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash.jpg 2048w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash-300x199.jpg 300w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash-1024x678.jpg 1024w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash-768x509.jpg 768w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash-1536x1017.jpg 1536w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash-150x99.jpg 150w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash-696x461.jpg 696w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash-1392x922.jpg 1392w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash-1068x707.jpg 1068w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash-1920x1271.jpg 1920w" sizes="auto, (max-width: 2048px) 100vw, 2048px" /></p>
<p>Utilizzare l’apprendimento automatico per ottimizzare la definizione dei modelli predittivi e terapeutici per pazienti che hanno subito l’infarto. Un’innovazione tutta italiana, torinese per l&#8217;esattezza, che si attesta a rivoluzionare i reparti di cardiologia e che conferma la città piemontese, già scelta come sede dell’Istituto Italiano per l’Intelligenza Artificiale (I3A), centro innovativo strategico. Quello tra intelligenza [&#8230;]</p>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/innovazioni-in-cardiologia-il-rischio-di-infarto-si-combatte-con-lai/">Innovazioni in cardiologia: il rischio di infarto si combatte con l’AI</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><img width="2048" height="1356" src="https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="" decoding="async" loading="lazy" srcset="https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash.jpg 2048w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash-300x199.jpg 300w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash-1024x678.jpg 1024w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash-768x509.jpg 768w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash-1536x1017.jpg 1536w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash-150x99.jpg 150w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash-696x461.jpg 696w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash-1392x922.jpg 1392w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash-1068x707.jpg 1068w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/02/jesse-orrico-Us3AQvyOP-o-unsplash-1920x1271.jpg 1920w" sizes="auto, (max-width: 2048px) 100vw, 2048px" /></p><p><strong>Utilizzare l’apprendimento automatico per ottimizzare la definizione dei modelli predittivi e terapeutici per pazienti che hanno subito l’infarto</strong>. Un’innovazione tutta italiana, torinese per l&#8217;esattezza, che si attesta a rivoluzionare i reparti di cardiologia e che conferma la città piemontese, già scelta come sede dell’Istituto Italiano per l’Intelligenza Artificiale (I3A), centro innovativo strategico.</p>
<p>Quello tra intelligenza artificiale e ambito sanitario è un rapporto di collaborazione sempre più fertile, destinato a maturare ulteriormente negli anni a venire. <strong>L’applicazione della tecnologia alla diagnostica si è rivelata strategica in più di una sperimentazione</strong>: abbiamo trattato in precedenti articoli dell’impiego dell’AI per<a href="https://osservatorio.c-quadra.it/lintelligenza-artificiale-per-lo-screening-del-tumore-al-seno/"> lo screening del tumore al seno</a>, così come per l’individuazione dei<a href="https://osservatorio.c-quadra.it/ai-diagnosi-del-covid-19/"> pazienti positivi al Covid-19 nella ricerca di EPFL</a> e <a href="https://osservatorio.c-quadra.it/grazie-allintelligenza-artificiale-basta-un-colpo-di-tosse-per-rilevare-il-covid-19/">in quella del MIT</a>.</p>
<p>La ricerca torinese, diretta dal <a href="http://www.cardiologiamolinette.it/cv/de-ferrari.html">professor Gaetano Maria De Ferrari</a>, è stata coordinata dalla <a href="https://www.cittadellasalute.to.it/index.php?option=com_content&amp;view=article&amp;id=177:cardiologia-u&amp;catid=140&amp;Itemid=412">Cardiologia Universitaria dell’Ospedale Molinette della Città della Salute di Torino</a> e condotta in collaborazione al <a href="https://informatica.unito.it/do/home.pl">Dipartimento di Informatica dell’Università di Torino</a> e al <a href="https://www.dimeas.polito.it/">Dipartimento di Ingegneria Meccanica e Aerospaziale del Politecnico di Torino</a>.</p>
<p>Pubblicato su <a href="https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(20)32519-8/fulltext">The Lancet</a>, <strong>lo studio sul nuovo sistema di classificazione dei rischi futuri per i pazienti cardiopatici si basa sul machine learning</strong>. Gli algoritmi di intelligenza artificiale permettono di costruire i modelli predittivi in base alle informazioni e alle relazioni ricavate dagli ampi database in possesso.</p>
<blockquote>
<h4 style="text-align: right;"><em>“Lo studio è una dimostrazione fortissima delle possibilità dell’Intelligenza Artificiale in medicina e in cardiologia in particolare.” </em></h4>
<h4 style="text-align: right;"> Professor <strong>Gaetano Maria De Ferrari</strong></h4>
</blockquote>
<p>Per ovviare ai rischi a cui incorrono i pazienti che hanno subito infarto miocardico nei primi anni dopo le cure, i medici devono prendere in considerazione diversi fattori in funzione della possibilità di peggioramento e ai trattamenti in corso. <strong>La terapia viene quindi tradizionalmente definita in funzione dell’esperienza e della consultazione di analisi statistiche di rischio, purtroppo non sempre precise</strong>.</p>
<p><strong>Gli algoritmi impiegati nella ricerca hanno invece permesso l’analisi di dati clinici inerenti a un bacino di pazienti piemontesi molto più ampio del solito e di individuare tra essi relazioni fondamentali altrimenti difficilmente identificabili</strong>. Sfruttando indicazioni e possibili combinazioni sui 23.000 soggetti esaminati attraverso i supercomputer di <a href="https://www.cineca.it/">CINECA</a> e di <a href="https://hpc4ai.unito.it/">HPC4AI</a>, è stato possibile ricavare informazioni preziose utili a definire strategie terapeutiche efficienti.</p>
<p>Mentre i punteggi di rischio rilevati con i dati statistici tradizionali hanno una precisione del 70% e un’incidenza di errore per tre pazienti su dieci, <strong>l’impiego del machine learning ottimizza le previsioni al 90% e riduce la possibilità di diagnosi scorretta sino a un paziente su dieci</strong>. Grazie alle stime ricavate con l’impiego dell’intelligenza artificiale in ambito sanitario risulta quindi possibile mettere in atto cure migliori per i pazienti di cardiologia e ottimizzare le prestazioni sanitarie.</p>
<p>&nbsp;</p>
<h6><em>Per Approfondire:</em></h6>
<h6><em>D’Ascenzo, O. De Filippo, G. Gallone, G. Mittone, M. A. Deriu, M. Iannaccone, A. Ariza-Solé, C.Liebetrau, S. Manzano-Fernàndez, Giorgio Quadri, Tim Kinnaird, G. Campo, J. P. S. Henriques, J. M. Hughes, A. Dominguez-Rodriguez, M. Aldinucci, U. Morbiducci, G. Patti, S. Raposeiras-Roubin, E. Abu-Assi, G. M. De Ferrari, PRAISE study group (2021) Machine learning-based prediction of adverse events following an acute coronary syndrome (PRAISE): a modelling study of pooled datasets, The Lancet, Volume 397, Issue 10270, pages 199-207</em></h6>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/innovazioni-in-cardiologia-il-rischio-di-infarto-si-combatte-con-lai/">Innovazioni in cardiologia: il rischio di infarto si combatte con l’AI</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://osservatorio.c-quadra.it/innovazioni-in-cardiologia-il-rischio-di-infarto-si-combatte-con-lai/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>I chip fotonici potenziano l’intelligenza artificiale</title>
		<link>https://osservatorio.c-quadra.it/i-chip-fotonici-potenziano-lintelligenza-artificiale/</link>
					<comments>https://osservatorio.c-quadra.it/i-chip-fotonici-potenziano-lintelligenza-artificiale/#respond</comments>
		
		<dc:creator><![CDATA[REDAZIONE]]></dc:creator>
		<pubDate>Tue, 26 Jan 2021 09:00:43 +0000</pubDate>
				<category><![CDATA[MECCATRONICA]]></category>
		<category><![CDATA[apprendimento automatico]]></category>
		<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[microingegneria]]></category>
		<category><![CDATA[Processori fotonici]]></category>
		<guid isPermaLink="false">https://osservatorio.c-quadra.it/?p=23383</guid>

					<description><![CDATA[<p><img width="1108" height="621" src="https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Chip-fotonici.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="" decoding="async" loading="lazy" srcset="https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Chip-fotonici.jpg 1108w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Chip-fotonici-300x168.jpg 300w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Chip-fotonici-1024x574.jpg 1024w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Chip-fotonici-768x430.jpg 768w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Chip-fotonici-150x84.jpg 150w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Chip-fotonici-696x390.jpg 696w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Chip-fotonici-1068x599.jpg 1068w" sizes="auto, (max-width: 1108px) 100vw, 1108px" /></p>
<p>Un processore fotonico che utilizza particelle di luce all’interno dei chip di silicio: lo studio innovativo condotto dagli scienziati dell’EPFL, di IBM Research di Zurigo e delle Università di Oxford, Münster, Exeter, Pittsburgh potrebbe rivelarsi cruciale per esaudire le sempre più intense esigenze di calcolo dell’era digitale. Stare al passo con la crescita esponenziale del [&#8230;]</p>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/i-chip-fotonici-potenziano-lintelligenza-artificiale/">I chip fotonici potenziano l’intelligenza artificiale</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><img width="1108" height="621" src="https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Chip-fotonici.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="" decoding="async" loading="lazy" srcset="https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Chip-fotonici.jpg 1108w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Chip-fotonici-300x168.jpg 300w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Chip-fotonici-1024x574.jpg 1024w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Chip-fotonici-768x430.jpg 768w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Chip-fotonici-150x84.jpg 150w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Chip-fotonici-696x390.jpg 696w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Chip-fotonici-1068x599.jpg 1068w" sizes="auto, (max-width: 1108px) 100vw, 1108px" /></p><p><strong>Un</strong> <strong>processore fotonico che utilizza particelle di luce all’interno dei chip di silicio</strong>: lo studio innovativo condotto dagli scienziati dell’<a href="https://www.epfl.ch/en/">EPFL</a>, di <a href="https://www.zurich.ibm.com/">IBM Research</a> di Zurigo e delle Università di <a href="https://www.ox.ac.uk/">Oxford</a>, <a href="https://www.uni-muenster.de/de/">Münster</a>, <a href="https://www.exeter.ac.uk/">Exeter</a>, <a href="https://www.pitt.edu/">Pittsburgh</a> potrebbe rivelarsi <strong>cruciale per esaudire le sempre più intense esigenze di calcolo dell’era digitale</strong>.</p>
<p>Stare al passo con la crescita esponenziale del traffico dati può essere arduo. L’impiego sempre più massivo delle tecnologie di apprendimento automatico e intelligenza artificiale nei più svariati ambiti di applicazione esige processori dal potenziale ampio.</p>
<p>L’architettura ideata dal team di ricercatori offre una possibile soluzione. <strong>L’elaborazione di attività matematiche complesse e l’archiviazione contemporanea di dati avviene molto più rapidamente impiegando processori basati sulla luce</strong>. I chip elettronici convenzionali sono estremamente più lenti.</p>
<p>Lo studio, esito della fruttuosa collaborazione di diversi prestigiosi gruppi di ricercatori, è <a href="https://www.nature.com/articles/s41586-020-03070-1">apparso recentemente sulla rivista Nature</a>. Quella dell’eterogeneo team di accademici è <strong>la prima ricerca ad applicare tali tecnologie nel campo delle reti neurali artificiali</strong>.</p>
<blockquote>
<h3 style="text-align: right;">&#8220;I processori basati sulla luce per velocizzare le attività nel campo dell&#8217;apprendimento automatico consentono di elaborare complesse attività matematiche ad alta velocità e produttività&#8221;</h3>
<h3 style="text-align: right;">Professore <a href="https://www.linkedin.com/in/wolfram-pernice-5907b818/">Wolfram Pernice</a>, Università di Münster</h3>
</blockquote>
<p>Le reti neurali alla base delle applicazioni AI, algoritmi che simulano il cervello umano, operano attraverso moltiplicazioni matrice-vettore<strong>. I ricercatori hanno implementato un acceleratore hardware per eseguire tali moltiplicazioni su più set in parallelo.</strong> Un risultato ottenuto facendo riferimento a un’altra tecnologia innovativa dell’EPFL: un pettine di frequenza basato su chip come fonte di luce.</p>
<p><strong>Il pettine di frequenza fornisce una varietà di lunghezze d’onda ottiche elaborabili indipendentemente l’una dall’altra all’interno dello stesso chip fotonico</strong>. Ciò permette di analizzare discrete mole di dati in parallelo sfruttando il multiplexing, calcolo simultaneo sulle lunghezze d’onda.</p>
<p>I chip fotonici sono stati realizzati con materiali a cambiamento di fase, del tipo solitamente impiegato nell’elaborazione di immagini e dati audio. Successivamente sono stati testati su una rete neurale progettata per riconoscere numeri scritti a mano.</p>
<p><strong>La velocità dei processori fotonici rispetto ai chip convenzionali basati sul trasferimento elettronico garantirebbe una serie di vantaggi in un ampio ventaglio di applicazioni.</strong> Maggiore portata di elaborazione simultanea degli algoritmi di intelligenza artificiale, analisi di una mole più ampia di dati clinici, ottimizzazione delle performance per i sensori dei veicoli a guida autonoma: reti neurali più grandi e capacità di calcolo potenziata permettono valutazioni più accurate.</p>
<p>&nbsp;</p>
<h6><em>Fonte:</em></h6>
<h6><em> J. Feldmann, N. Youngblood, M. Karpov, H. Gehring, X. Li, M. Stappers, M. Le Gallo, X. Fu, A. Lukashchuk, A.S. Raja, J. Liu, C.D. Wright, A. Sebastian, T.J. Kippenberg, W.H.P. Pernice, H. Bhaskaran (2021) Parallel convolutional processing using an integrated photonic tensor core, Nature </em><em>589, <span class="u-visually-hidden">pages </span>52–58 </em></h6>
<h6><em>Lo studio è stato finanziato da EPSRC, Deutsche Forschungsgemeinschaft (DFG), European Research Council, European Union’s Horizon 2020 Research and Innovation Programme (Fun-COMP), Studienstiftung des deutschen Volkes.</em></h6>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/i-chip-fotonici-potenziano-lintelligenza-artificiale/">I chip fotonici potenziano l’intelligenza artificiale</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://osservatorio.c-quadra.it/i-chip-fotonici-potenziano-lintelligenza-artificiale/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Il robot addestrato con l’Intelligenza Artificiale</title>
		<link>https://osservatorio.c-quadra.it/il-robot-addestrato-con-lintelligenza-artificiale/</link>
					<comments>https://osservatorio.c-quadra.it/il-robot-addestrato-con-lintelligenza-artificiale/#respond</comments>
		
		<dc:creator><![CDATA[REDAZIONE]]></dc:creator>
		<pubDate>Fri, 08 Jan 2021 09:00:29 +0000</pubDate>
				<category><![CDATA[MECCATRONICA]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[apprendimento automatico]]></category>
		<category><![CDATA[robot]]></category>
		<category><![CDATA[Robotica]]></category>
		<category><![CDATA[sviluppo software]]></category>
		<guid isPermaLink="false">https://osservatorio.c-quadra.it/?p=22105</guid>

					<description><![CDATA[<p><img width="2400" height="1350" src="https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Science_yang7HR.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="" decoding="async" loading="lazy" srcset="https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Science_yang7HR.jpg 2400w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Science_yang7HR-300x169.jpg 300w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Science_yang7HR-1024x576.jpg 1024w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Science_yang7HR-768x432.jpg 768w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Science_yang7HR-1536x864.jpg 1536w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Science_yang7HR-2048x1152.jpg 2048w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Science_yang7HR-150x84.jpg 150w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Science_yang7HR-696x392.jpg 696w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Science_yang7HR-1392x783.jpg 1392w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Science_yang7HR-1068x601.jpg 1068w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/Science_yang7HR-1920x1080.jpg 1920w" sizes="auto, (max-width: 2400px) 100vw, 2400px" /></p>
<p>I cani robot non sono una novità: da quelli che si cimentano in pratiche sportive ai più recenti che controllano il rispetto del distanziamento sociale. A prescindere dalle caratteristiche fisiche specifiche, tutti questi robot hanno in comune una principale peculiarità: sono manovrati da remoto. Caratteristica non riscontrabile in Jueying: creato da un team di ricercatori [&#8230;]</p>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/il-robot-addestrato-con-lintelligenza-artificiale/">Il robot addestrato con l’Intelligenza Artificiale</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>I cani robot non sono una novità</strong>: da quelli che si cimentano in pratiche sportive ai più recenti che controllano il rispetto del distanziamento sociale. A prescindere dalle caratteristiche fisiche specifiche,<strong> tutti questi robot hanno in comune una principale peculiarità: sono manovrati da remoto.</strong></p>
<p>Caratteristica non riscontrabile in <strong>Jueying: creato da un team di ricercatori dell’<a href="https://www.zju.edu.cn/english/">Università cinese di Zhejiang</a> insieme all’<a href="https://www.ed.ac.uk/">Università di Edimburgo</a></strong>, il cane robot riesce a muoversi nello spazio e a rispondere a determinati stimoli semplicemente perché ha imparato a farlo.</p>
<p>Immaginiamo un bambino che impara a camminare quando più piccolo. Una volta chiesto al bambino di compiere dei movimenti specifici, come salire le scale o sedersi, non si procede a dare istruzione sul come muovere una gamba o un braccio, passo passo. Il bambino lo imparerà semplicemente provandoci. Allo stesso modo, <strong>a Jueying non vengono fornite indicazioni su ogni possibile scenario realizzabile. Anche perché il mondo reale è un continuo imprevisto</strong>: difficilmente sarebbe possibile codificare ogni situazione, ogni comportamento, ogni reazione ad uno stimolo.</p>
<p><img loading="lazy" decoding="async" class="alignnone size-full wp-image-22124" src="https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/F2.large_.jpg" alt="" width="1050" height="528" srcset="https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/F2.large_.jpg 1050w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/F2.large_-300x151.jpg 300w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/F2.large_-1024x515.jpg 1024w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/F2.large_-768x386.jpg 768w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/F2.large_-150x75.jpg 150w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/01/F2.large_-696x350.jpg 696w" sizes="auto, (max-width: 1050px) 100vw, 1050px" /></p>
<p><strong><a href="https://www.linkedin.com/in/zhibin-li-7415b31a1/">Zhibin Li</a>, robotista dell’Università di Edimburgo e autore di un<a href="https://robotics.sciencemag.org/content/5/49/eabb2174"> recente articolo sulla rivista Science Robotics</a></strong> che descrive il funzionamento di Jueying,<strong> insieme al team di ricerca, ha innanzitutto addestrato il software a guidare una versione virtuale del cane robot</strong>. Come? Mediante lo <strong>sviluppo di un’architettura di apprendimento con otto “esperti” algoritmici con lo scopo di aiutare il cane robot a mettere in atto ed imparare comportamenti complessi.</strong> Per ognuno di questi, è stata utilizzata una rete neurale profonda, specializzata in una particolare tipologia di abilità. Al robot sono poi state fornite delle <strong>“ricompense digitali”</strong> in caso di successo o, viceversa, dei<strong> “demeriti digitali”</strong> in caso di insuccesso. In questo modo, ognuno degli “esperti” ha acquisito padronanza su un’esperienza.</p>
<p><strong>Grazie all’Intelligenza Artificiale, il robot simulato ha così potuto procedere per tentativi ed errori, sino ad imparare dall’esperienza</strong>, a differenza dei robot tradizionali in cui ogni possibilità, ambiente, configurazione è codificata meticolosamente, riga per riga. Non c’è modo di prevedere totalmente il caos, non è possibile codificare ogni imprevisto. Al contrario con l’AI, <strong>Jueying è in grado di resistere all’imprevisto.</strong></p>
<div style="width: 640px;" class="wp-video"><video class="wp-video-shortcode" id="video-22105-2" width="640" height="360" preload="metadata" controls="controls"><source type="video/mp4" src="https://media.wired.com/clips/5fe10679adb00d267b4a351d/master/pass/Science_yang5.mp4?_=2" /><a href="https://media.wired.com/clips/5fe10679adb00d267b4a351d/master/pass/Science_yang5.mp4">https://media.wired.com/clips/5fe10679adb00d267b4a351d/master/pass/Science_yang5.mp4</a></video></div>
<p>Come si è detto, al contrario del metodo tradizionale, questo approccio consente di imparare compiendo un’azione centinaia di migliaia di volte o anche milioni di volte, se necessario. Quel che risulta <strong>fondamentale è il coordinamento e la collaborazione tra gli otto esperti algoritmici: i ricercatori li hanno infatti combinati in una rete globale in modo da farli agire (e reagire) allo stesso modo in cui una squadra si muove grazie al suo allenatore/capitano. </strong>(Nel video qui sopra, gli 8 esperti sono rappresentati dalle 8 barre verticali colorate). Camminare su una superficie ricoperta di pietre senza brutte distorsioni alle caviglie, correre su una superficie scivolosa: se il cane robot dovesse perdere l’equilibrio, tutti gli otto esperti, agiscono per ripristinare l’equilibrio, per farlo reagire, per farlo proseguire, ecc. E tutti questi apprendimenti, possono poi essere trasferiti dal robot virtuale al robot fisico.</p>
<p>&nbsp;</p>
<h3 style="text-align: right;"><em>Avremo così macchine più intelligenti, in grado di combinare abilità flessibili e adattive e di gestire una varietà di compiti mai visti prima.</em></h3>
<p style="text-align: right;">Zhibin Li</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>Fonte:<br />
Chuanyu Yang, Kay Yuan, Qiuguo Zhu, Wanming Yu, Zhibin Li (2020) Multi-expert learning of adaptive leggend locomotion, Science Robotics 9 Dec 2020, Vol. 5, Issue 49, eabb2174, DOI: 10:1126/scirobotics.abb2174</p>
<p>&nbsp;</p>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/il-robot-addestrato-con-lintelligenza-artificiale/">Il robot addestrato con l’Intelligenza Artificiale</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://osservatorio.c-quadra.it/il-robot-addestrato-con-lintelligenza-artificiale/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		<enclosure url="https://media.wired.com/clips/5fe10679adb00d267b4a351d/master/pass/Science_yang5.mp4" length="2158550" type="video/mp4" />

			</item>
		<item>
		<title>L&#8217;AI in prima linea nella diagnosi del COVID-19</title>
		<link>https://osservatorio.c-quadra.it/ai-diagnosi-del-covid-19/</link>
					<comments>https://osservatorio.c-quadra.it/ai-diagnosi-del-covid-19/#respond</comments>
		
		<dc:creator><![CDATA[REDAZIONE]]></dc:creator>
		<pubDate>Fri, 18 Dec 2020 09:00:29 +0000</pubDate>
				<category><![CDATA[HEALTH & SPORT]]></category>
		<category><![CDATA[analisi del respiro]]></category>
		<category><![CDATA[apprendimento automatico]]></category>
		<category><![CDATA[disuguaglianze di salute]]></category>
		<category><![CDATA[ecografie polmonari]]></category>
		<category><![CDATA[EPFL]]></category>
		<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[pneumoscopio]]></category>
		<category><![CDATA[polmonite]]></category>
		<category><![CDATA[stetoscopio digitale intelligente]]></category>
		<guid isPermaLink="false">https://osservatorio.c-quadra.it/?p=20162</guid>

					<description><![CDATA[<p><img width="2048" height="1365" src="https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="" decoding="async" loading="lazy" srcset="https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash.jpg 2048w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash-300x200.jpg 300w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash-1024x683.jpg 1024w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash-768x512.jpg 768w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash-1536x1024.jpg 1536w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash-150x100.jpg 150w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash-696x464.jpg 696w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash-1392x928.jpg 1392w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash-1068x712.jpg 1068w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash-1920x1280.jpg 1920w" sizes="auto, (max-width: 2048px) 100vw, 2048px" /></p>
<p>Abbiamo in precedenti articoli parlato dell’utilizzo dell’Intelligenza Artificiale in campo sanitario e dei suoi promettenti risvolti. Era del MIT il progetto che riusciva ad individuare i soggetti positivi al Coronavirus grazie all’AI e all’analisi del colpo di tosse. Più vicine a noi, e più precisamente provenienti dalla Svizzera EPFL, arrivano ora due nuove ricerche. DeepBreath [&#8230;]</p>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/ai-diagnosi-del-covid-19/">L&#8217;AI in prima linea nella diagnosi del COVID-19</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><img width="2048" height="1365" src="https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="" decoding="async" loading="lazy" srcset="https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash.jpg 2048w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash-300x200.jpg 300w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash-1024x683.jpg 1024w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash-768x512.jpg 768w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash-1536x1024.jpg 1536w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash-150x100.jpg 150w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash-696x464.jpg 696w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash-1392x928.jpg 1392w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash-1068x712.jpg 1068w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/12/united-nations-covid-19-response-DXPhqh6q26c-unsplash-1920x1280.jpg 1920w" sizes="auto, (max-width: 2048px) 100vw, 2048px" /></p><p>Abbiamo <a href="https://osservatorio.c-quadra.it/?s=intelligenza+artificiale&amp;id=8354&amp;post_type=post">in precedenti articoli</a> parlato dell’<strong>utilizzo dell’<a href="https://osservatorio.c-quadra.it/lintelligenza-artificiale-per-lo-screening-del-tumore-al-seno/">Intelligenza Artificiale in campo sanitario</a></strong> e dei suoi promettenti risvolti. <strong>Era del <a href="https://www.mit.edu/">MIT</a> il progetto che riusciva ad <a href="https://osservatorio.c-quadra.it/grazie-allintelligenza-artificiale-basta-un-colpo-di-tosse-per-rilevare-il-covid-19/">individuare i soggetti positivi al Coronavirus</a></strong> grazie all’AI e all’analisi del colpo di tosse.</p>
<p>Più vicine a noi, e più precisamente provenienti <strong>dalla Svizzera <a href="https://www.epfl.ch/en/">EPFL</a>, arrivano ora due nuove ricerche. DeepBreath e DeepChest</strong>: la prima, più simile al progetto del MIT, esamina suoni respiratori, mentre la seconda, analizza immagini ecografiche polmonari.</p>
<p><strong><a href="https://people.epfl.ch/mary-anne.hartley/?lang=en">Mary-Anne Hartley</a>, medico ricercatore, alla guida del team di ricerca, ha lavorato sui due progetti</strong>, sviluppando nuovi algoritmi in grado di diagnosticare con precisione il COVID-19.</p>
<p>&nbsp;</p>
<h3 style="text-align: right;"><em>&#8220;Vogliamo creare strumenti solidi e affidabili, che vadano oltre questa pandemia. […] Speriamo che lo slancio continui e possa essere utilizzato per consentire un accesso equo all’assistenza sanitaria.&#8221;</em></h3>
<p style="text-align: right;">Mary-Anne Hartley</p>
<p>&nbsp;</p>
<p><strong>DeepChest ha visto il coinvolgimento dell’Ospedale Universitario di Losanna</strong>: con la guida della <strong>Dottoressa <a href="https://applicationspub.unil.ch/interpub/noauth/php/Un/UnPers.php?PerNum=20830&amp;LanCode=8">Noémie Boillat-Blanco</a></strong>, si è proceduto <strong>dal 2019 ad oggi alla raccolta di migliaia di immagini ecografiche polmonari</strong>. Il progetto, infatti, nasceva per identificare i marcatori che meglio potevano distinguere tra una polmonite virale ed una batterica. Nel 2020 il focus si è spostato in parte, andando a centrarsi totalmente sul Coronavirus.</p>
<p><strong>DeepBreathe </strong>invece <strong>ha coinvolto l’Ospedale dell’Università di Ginevra e il Professor <a href="https://www.unige.ch/medecine/petri/fr/groupes-de-recherche/183gervaix/membres-du-groupe/prof-alain-gervaix/">Alain Gervaix, M.D.</a></strong>, presidente del Dipartimento di donne, bambini e adolescenti, che <strong>dal 2017 ha raccolto il suono del respiro per la costruzione di uno stetoscopio digitale intelligente. “Pneumoscopio”</strong>: originariamente creato per la diagnosi della polmonite è stato nel 2020 “corretto” per il riconoscimento del Coronavirus. Le registrazioni hanno poi permesso a EPFL di sviluppare l’<strong>algoritmo DeepBreathe</strong>, che <strong>dai primi risultati</strong>, sembrerebbe in grado di <strong>rilevare anche COVID-19 asintomatico.</strong></p>
<p>Attualmente si sta lavorando per <strong>sviluppare un&#8217;app per mobile</strong> che consenta agli algoritmi di poter<strong> funzionare anche su telefoni cellulari, anche nelle regioni più isolate</strong>. Contemporaneamente, e sempre nella stessa direzione, si procede al <strong>raccoglimento di ulteriori dati</strong>, provenienti da comunità sotto rappresentate, per l&#8217;estensione dell&#8217;utilizzo dei modelli anche nella distinzione tra polmonite virale e batterica, per la riduzione dell&#8217;uso di antibiotici e, soprattutto, per la riduzione dell&#8217;elevato numero di bambini vittime di polmonite nei contesti poveri.</p>
<p>&nbsp;</p>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/ai-diagnosi-del-covid-19/">L&#8217;AI in prima linea nella diagnosi del COVID-19</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://osservatorio.c-quadra.it/ai-diagnosi-del-covid-19/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Grazie all’intelligenza artificiale basta un colpo di tosse per rilevare il Covid-19</title>
		<link>https://osservatorio.c-quadra.it/grazie-allintelligenza-artificiale-basta-un-colpo-di-tosse-per-rilevare-il-covid-19/</link>
					<comments>https://osservatorio.c-quadra.it/grazie-allintelligenza-artificiale-basta-un-colpo-di-tosse-per-rilevare-il-covid-19/#respond</comments>
		
		<dc:creator><![CDATA[REDAZIONE]]></dc:creator>
		<pubDate>Thu, 05 Nov 2020 15:19:37 +0000</pubDate>
				<category><![CDATA[HEALTH & SPORT]]></category>
		<category><![CDATA[apprendimento automatico]]></category>
		<category><![CDATA[Covid19]]></category>
		<category><![CDATA[healthcare]]></category>
		<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[MIT]]></category>
		<category><![CDATA[ricerca]]></category>
		<guid isPermaLink="false">https://osservatorio.c-quadra.it/?p=1169</guid>

					<description><![CDATA[<p><img width="1920" height="1358" src="https://osservatorio.c-quadra.it/wp-content/uploads/2020/11/united-nations-covid-19-response-b7Es9ZMdORo-unsplash-e1604955623777.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="" decoding="async" loading="lazy" srcset="https://osservatorio.c-quadra.it/wp-content/uploads/2020/11/united-nations-covid-19-response-b7Es9ZMdORo-unsplash-e1604955623777.jpg 1920w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/11/united-nations-covid-19-response-b7Es9ZMdORo-unsplash-e1604955623777-300x212.jpg 300w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/11/united-nations-covid-19-response-b7Es9ZMdORo-unsplash-e1604955623777-1024x724.jpg 1024w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/11/united-nations-covid-19-response-b7Es9ZMdORo-unsplash-e1604955623777-768x543.jpg 768w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/11/united-nations-covid-19-response-b7Es9ZMdORo-unsplash-e1604955623777-1536x1086.jpg 1536w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/11/united-nations-covid-19-response-b7Es9ZMdORo-unsplash-e1604955623777-696x492.jpg 696w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/11/united-nations-covid-19-response-b7Es9ZMdORo-unsplash-e1604955623777-1392x985.jpg 1392w" sizes="auto, (max-width: 1920px) 100vw, 1920px" /></p>
<p>Il Covid-19 continua ad essere una priorità mondiale: la sua ampia diffusione spinge i ricercatori a impegnarsi nella lotta contro la pandemia sviluppando progetti innovativi. Recentemente un team del MIT ha scoperto che i soggetti positivi al Coronavirus tossiscono in modo diverso dai negativi ed è in grado di individuarli grazie all’intelligenza artificiale. Una ricerca [&#8230;]</p>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/grazie-allintelligenza-artificiale-basta-un-colpo-di-tosse-per-rilevare-il-covid-19/">Grazie all’intelligenza artificiale basta un colpo di tosse per rilevare il Covid-19</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><img width="1920" height="1358" src="https://osservatorio.c-quadra.it/wp-content/uploads/2020/11/united-nations-covid-19-response-b7Es9ZMdORo-unsplash-e1604955623777.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="" decoding="async" loading="lazy" srcset="https://osservatorio.c-quadra.it/wp-content/uploads/2020/11/united-nations-covid-19-response-b7Es9ZMdORo-unsplash-e1604955623777.jpg 1920w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/11/united-nations-covid-19-response-b7Es9ZMdORo-unsplash-e1604955623777-300x212.jpg 300w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/11/united-nations-covid-19-response-b7Es9ZMdORo-unsplash-e1604955623777-1024x724.jpg 1024w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/11/united-nations-covid-19-response-b7Es9ZMdORo-unsplash-e1604955623777-768x543.jpg 768w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/11/united-nations-covid-19-response-b7Es9ZMdORo-unsplash-e1604955623777-1536x1086.jpg 1536w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/11/united-nations-covid-19-response-b7Es9ZMdORo-unsplash-e1604955623777-696x492.jpg 696w, https://osservatorio.c-quadra.it/wp-content/uploads/2020/11/united-nations-covid-19-response-b7Es9ZMdORo-unsplash-e1604955623777-1392x985.jpg 1392w" sizes="auto, (max-width: 1920px) 100vw, 1920px" /></p><p>Il Covid-19 continua ad essere una priorità mondiale: la sua ampia diffusione spinge i ricercatori a impegnarsi nella lotta contro la pandemia <a href="https://osservatorio.c-quadra.it/kit-per-ventilatori-polmonari/">sviluppando progetti innovativi</a>. <b>Recentemente un team del <a href="https://www.mit.edu/">MIT</a> ha scoperto che i soggetti positivi al Coronavirus tossiscono in modo diverso dai negativi ed è in grado di individuarli grazie all’intelligenza artificiale</b>. Una ricerca che può rivelarsi sostanziale contro l’espansione della malattia.</p>
<p>Un articolo pubblicato sull’<a href="https://ieeexplore.ieee.org/document/9208795.">IEEE Journal of Engineering in Medicine and Biology</a> dai ricercatori <a href="https://www.linkedin.com/in/brian-subirana-8831081/">Brian Subirana</a>, <a href="https://www.linkedin.com/in/jordi-laguarta-soler/">Jordi Laguarta</a> e <a href="https://www.linkedin.com/in/ferranhuetopuig/">Ferran Hueto</a> descrive e dimostra i risultati dello studio. <strong>Utilizzando un algoritmo che esamina la tosse forzata dei soggetti esaminati è possibile individuare chi ha contratto il virus.</strong></p>
<p>Il modello del MIT, settato su migliaia di campioni di tosse e parole, ha identificato il 98,5% di emissioni prodotte da soggetti positivi al Covid-19, di cui il 100% dei casi asintomatici.</p>
<blockquote class="twitter-tweet" data-width="550" data-dnt="true">
<p lang="en" dir="ltr">&quot;COVID-19 Artificial Intelligence Diagnosis using only Cough Recordings&quot; <br /> An algorithm can correctly identify people with COVID-19 by the way they sound&#8211;even if they are asymptomatic. Read fulltext article from <a href="https://twitter.com/hashtag/IEEE?src=hash&amp;ref_src=twsrc%5Etfw">#IEEE</a> <a href="https://twitter.com/hashtag/OJEMB?src=hash&amp;ref_src=twsrc%5Etfw">#OJEMB</a> <a href="https://t.co/vglOmKOuC6">https://t.co/vglOmKOuC6</a> <a href="https://twitter.com/hashtag/COVID19?src=hash&amp;ref_src=twsrc%5Etfw">#COVID19</a> <a href="https://t.co/pZLi0lDSnD">pic.twitter.com/pZLi0lDSnD</a></p>
<p>&mdash; IEEE Engineering in Medicine and Biology Society (@IEEEembs) <a href="https://twitter.com/IEEEembs/status/1323694494122913792?ref_src=twsrc%5Etfw">November 3, 2020</a></p></blockquote>
<p><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<p>In passato il team di ricerca aveva già elaborato degli algoritmi tarati sull’emissione di tosse per individuare casi di malattie quali asma, polmonite e Alzheimer. <strong>Il modello di intelligenza artificiale settato per rilevare i segnali di Alzheimer si è dimostrato essenziale per lo studio sul Coronavirus. Le due malattie hanno infatti sintomi simili tali per cui il comportamento delle corde vocali risulta analogo</strong>.</p>
<p>Per individuare i biomarcatori del Covid-19 e valutare la degradazione polmonare sono stati combinati tre algoritmi di apprendimento. Il primo è settato sul grado di forza delle corde vocali, il secondo sugli stati emotivi del linguaggio e il terzo sui colpi di tosse.</p>
<p><strong>Il team di ricercatori dell’<a href="https://autoid.mit.edu/">Auto-ID Laboratory</a></strong> <strong>del MIT è ora al lavoro per incorporare il modello di intelligenza artificiale a un’applicazione</strong>: <strong>all’utente basterebbe accedere e tossire per avere feedback immediato sulla possibilità di infezione</strong>. Uno strumento gratuito che potrebbe attestarsi come valido alleato nelle attività di screening preventive, essenziali in questa fase di seconda ondata del virus.</p>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/grazie-allintelligenza-artificiale-basta-un-colpo-di-tosse-per-rilevare-il-covid-19/">Grazie all’intelligenza artificiale basta un colpo di tosse per rilevare il Covid-19</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://osservatorio.c-quadra.it/grazie-allintelligenza-artificiale-basta-un-colpo-di-tosse-per-rilevare-il-covid-19/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>

<!--
Performance optimized by W3 Total Cache. Learn more: https://www.boldgrid.com/w3-total-cache/?utm_source=w3tc&utm_medium=footer_comment&utm_campaign=free_plugin

Page Caching using Disk: Enhanced 
Lazy Loading (feed)
Minified using Disk

Served from: osservatorio.c-quadra.it @ 2026-03-10 06:37:01 by W3 Total Cache
-->