<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Big Data Archivi - Osservatorio C Quadra</title>
	<atom:link href="https://osservatorio.c-quadra.it/tag/big-data/feed/" rel="self" type="application/rss+xml" />
	<link>https://osservatorio.c-quadra.it/tag/big-data/</link>
	<description>Osservatorio Innovazione</description>
	<lastBuildDate>Tue, 11 May 2021 15:45:56 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://osservatorio.c-quadra.it/wp-content/uploads/2020/10/cropped-CQ-Nero-1-32x32.jpg</url>
	<title>Big Data Archivi - Osservatorio C Quadra</title>
	<link>https://osservatorio.c-quadra.it/tag/big-data/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Scoprire l’impatto sostenibile di un prodotto alimentare? Facile, grazie agli open data</title>
		<link>https://osservatorio.c-quadra.it/scoprire-limpatto-sostenibile-di-un-prodotto-alimentare-facile-grazie-agli-open-data/</link>
					<comments>https://osservatorio.c-quadra.it/scoprire-limpatto-sostenibile-di-un-prodotto-alimentare-facile-grazie-agli-open-data/#respond</comments>
		
		<dc:creator><![CDATA[REDAZIONE]]></dc:creator>
		<pubDate>Tue, 11 May 2021 10:13:45 +0000</pubDate>
				<category><![CDATA[SOSTENIBILITÀ]]></category>
		<category><![CDATA[acqua]]></category>
		<category><![CDATA[acqua virtuale]]></category>
		<category><![CDATA[agricoltura]]></category>
		<category><![CDATA[Alimentazione]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[impronta idrica]]></category>
		<category><![CDATA[infografiche]]></category>
		<category><![CDATA[open data]]></category>
		<category><![CDATA[sostenibilità]]></category>
		<category><![CDATA[water footprint]]></category>
		<guid isPermaLink="false">https://osservatorio.c-quadra.it/?p=25360</guid>

					<description><![CDATA[<p><img width="1920" height="1280" src="https://osservatorio.c-quadra.it/wp-content/uploads/2021/05/milana-jovanov-s1xR3R7Q_H4-unsplash.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="" decoding="async" fetchpriority="high" srcset="https://osservatorio.c-quadra.it/wp-content/uploads/2021/05/milana-jovanov-s1xR3R7Q_H4-unsplash.jpg 1920w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/05/milana-jovanov-s1xR3R7Q_H4-unsplash-300x200.jpg 300w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/05/milana-jovanov-s1xR3R7Q_H4-unsplash-1024x683.jpg 1024w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/05/milana-jovanov-s1xR3R7Q_H4-unsplash-768x512.jpg 768w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/05/milana-jovanov-s1xR3R7Q_H4-unsplash-1536x1024.jpg 1536w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/05/milana-jovanov-s1xR3R7Q_H4-unsplash-150x100.jpg 150w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/05/milana-jovanov-s1xR3R7Q_H4-unsplash-696x464.jpg 696w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/05/milana-jovanov-s1xR3R7Q_H4-unsplash-1392x928.jpg 1392w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/05/milana-jovanov-s1xR3R7Q_H4-unsplash-1068x712.jpg 1068w" sizes="(max-width: 1920px) 100vw, 1920px" /></p>
<p>La nuova piattaforma digitale &#8220;Water To Food” rappresenta la strategia di comunicazione dei risultati legati al progetto di ricerca CWASI &#8211; Coping with water scarcity in a globalized world &#8211; finanziato dall’European Research Council e guidato da Francesco Laio, professore di idrologia presso il Politecnico di Torino.  Il progetto CWASI, conclusosi nel 2020, ha affrontato [&#8230;]</p>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/scoprire-limpatto-sostenibile-di-un-prodotto-alimentare-facile-grazie-agli-open-data/">Scoprire l’impatto sostenibile di un prodotto alimentare? Facile, grazie agli open data</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><b>La nuova piattaforma digitale &#8220;<a href="https://www.watertofood.org">Water To Food</a>” rappresenta la strategia di comunicazione dei risultati legati al progetto di ricerca <a href="https://cordis.europa.eu/project/id/647473/it">CWASI</a></b> <b>&#8211; Coping with water scarcity in a globalized world</b> &#8211; finanziato dall’<a href="https://erc.europa.eu"><b>European Research Council</b></a> e <b>guidato da <a href="https://www.linkedin.com/in/francesco-laio-8a2b58206?lipi=urn%3Ali%3Apage%3Ad_flagship3_profile_view_base_contact_details%3BT965ShUNT0%2BeN0dTSEkfSw%3D%3D">Francesco Laio</a>, professore di idrologia presso il <a href="https://www.polito.it">Politecnico di Torino</a></b>.<span class="Apple-converted-space"> </span></p>
<p><b>Il progetto CWASI, </b>conclusosi nel 2020, <b>ha affrontato il problema della globalizzazione delle risorse idriche, concentrandosi sul suo consumo ed utilizzo nella produzione alimentare. </b>Tra i numerosi obiettivi, gli sforzi di ricerca si sono focalizzati anche sull’<b>analisi dell’impronta idrica dell’agricoltura e sulla dinamica dei flussi di &#8220;acqua virtuale&#8221; associati al commercio globale dei prodotti</b>.<span class="Apple-converted-space"> </span></p>
<p><b>Il tutto, al fine di avere un quadro completo e dati interessanti per un’esatta valutazione</b> dell’uso dell’acqua per la produzione nello spazio e nel tempo, diversi prodotti alimentari cruciali, <b>secondo l’indicatore Water Footprint</b>.<span class="Apple-converted-space"> </span></p>
<p><b>Water To Food</b>, vuole essere punto di riferimento per altri ricercatori, ma più di tutto, <b>vuole mettere a disposizione della società i dati riguardanti l’acqua virtuale</b> sopracitata, ovvero<span class="Apple-converted-space"> <strong>&#8220;</strong></span><strong>l’acqua che, prelevata da una nazione per coltivare e lavorare un determinato bene, si sposta dal posto di produzione al posto di consumo&#8221;</strong>.<span class="Apple-converted-space"> </span></p>
<div class="youtube-embed" data-video_id="Sul3G4p2vgM"><iframe title="Water To Food –  Breakdown Video Campaign" width="696" height="392" src="https://www.youtube.com/embed/Sul3G4p2vgM?feature=oembed&#038;enablejsapi=1" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></div>
<p><b>I dati raccolti</b> dal 2015 nel corso del progetto CWASI, <b>hanno contribuito in modo rilevante ad arricchire ed aggiornare la letteratura sul tema</b>. Solo dopo, la decisone di raccoglierli su questa piattaforma,<b> rielaborandoli per essere fruibili ad un ampio target, grazie alla loro organizzazione in infografiche interattive</b>.</p>
<p>L’idea di divulgare sotto questa forma i risultati ottenuti, è nata da <b><a href="https://www.linkedin.com/in/benedettafalsetti/">Benedetta Falsetti</a>, <a href="https://www.linkedin.com/in/carlasciarra/">Carla Sciarra</a> e <a href="https://www.linkedin.com/in/martatuninetti/">Marta Tuninetti</a></b>, <strong>tre giovani ricercatrici del <a href="https://www.diati.polito.it">Dipartimento di Ingegneria dell&#8217;Ambiente, del Territorio e delle Infrastrutture del Politecnico di Torino</a></strong>. Durante l’ultimo anno, hanno lavorato al fianco di un team di esperti in comunicazione, cercando una via per passare informazioni complesse in maniera semplice ed immediata.<span class="Apple-converted-space"> </span></p>
<blockquote class="td_pull_quote td_pull_center"><p><b>Water To Food è pensato proprio per chi, essendo curioso ed attento su questi temi e volenteroso di ridurre l’impatto sulle risorse idriche della sua dieta, possa accedere in maniera rapida e facile ad un vasto database di informazioni, che possano aiutare nella scelta degli acquisti e promuovendo così un consumo di acqua più sostenibile&#8230;</b></p></blockquote>
<p>Un esempio: <strong><a href="https://www.watertofood.org/play-with-data/">sapete quanti metri cubi d&#8217;acqua virtuale si porta dietro l&#8217;acquisto &#8211; in Italia &#8211; di un frutto kiwi proveniente dal Sudafrica, piuttosto che dal Cile?</a></strong> Stiamo parlando di 7.324 metri cubi per il primo, a di 5.487.240 metri cubi per il secondo (dato 2016).</p>
<p>Ovviamente esistono <strong>relazioni complesse tra i fattori che determinato l&#8217;impronta idrica e possono dipendere dal clima come dalle pratiche agricole più o meno all&#8217;avanguardia, ma anche da cambiamenti demografici e dalle dinamiche di mercato. </strong>Tutti aspetti che sono stati indagati grazie al progetto CWASI.</p>
<p><img decoding="async" class="wp-image-25365 aligncenter" src="https://osservatorio.c-quadra.it/wp-content/uploads/2021/05/Schermata-2021-05-11-alle-09.32.08.png" alt="" width="448" height="664" /></p>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/scoprire-limpatto-sostenibile-di-un-prodotto-alimentare-facile-grazie-agli-open-data/">Scoprire l’impatto sostenibile di un prodotto alimentare? Facile, grazie agli open data</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://osservatorio.c-quadra.it/scoprire-limpatto-sostenibile-di-un-prodotto-alimentare-facile-grazie-agli-open-data/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Sono (finalmente) arrivati gli ologrammi 3D generati in tempo reale</title>
		<link>https://osservatorio.c-quadra.it/sono-finalmente-arrivati-gli-ologrammi-3d-generati-in-tempo-reale/</link>
					<comments>https://osservatorio.c-quadra.it/sono-finalmente-arrivati-gli-ologrammi-3d-generati-in-tempo-reale/#respond</comments>
		
		<dc:creator><![CDATA[REDAZIONE]]></dc:creator>
		<pubDate>Tue, 30 Mar 2021 08:00:48 +0000</pubDate>
				<category><![CDATA[INNOVAZIONE]]></category>
		<category><![CDATA[3D]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[apprendimento automatico]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[olografia]]></category>
		<category><![CDATA[olografia tensoriale]]></category>
		<category><![CDATA[ologrammi]]></category>
		<category><![CDATA[realtà virtuale]]></category>
		<category><![CDATA[VR]]></category>
		<guid isPermaLink="false">https://osservatorio.c-quadra.it/?p=25096</guid>

					<description><![CDATA[<p><img width="2560" height="1502" src="https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="" decoding="async" loading="lazy" srcset="https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671.jpg 2560w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-300x176.jpg 300w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-1024x601.jpg 1024w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-768x451.jpg 768w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-1536x901.jpg 1536w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-2048x1202.jpg 2048w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-150x88.jpg 150w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-696x408.jpg 696w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-1392x817.jpg 1392w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-1068x627.jpg 1068w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/josh-riemer-flRN6KYpl1A-unsplash-1-scaled-e1617043990671-1920x1127.jpg 1920w" sizes="auto, (max-width: 2560px) 100vw, 2560px" /></p>
<p>La chiave di volta per la realtà virtuale potrebbe risiedere in una tecnologia vecchia di 60 anni: l’olografia.  Gli ologrammi regalano un’eccezionale rappresentazione del mondo 3D e, cosa più importante, offrono una prospettiva mutevole in base alla posizione dello spettatore, consentendo all’occhio di regolare la profondità, mettendo a fuoco alternativamente il primo piano piuttosto che [&#8230;]</p>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/sono-finalmente-arrivati-gli-ologrammi-3d-generati-in-tempo-reale/">Sono (finalmente) arrivati gli ologrammi 3D generati in tempo reale</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">La </span><b>chiave di volta per la realtà virtuale </b><span style="font-weight: 400;">potrebbe risiedere in una tecnologia vecchia di 60 anni: </span><b>l’olografia</b><span style="font-weight: 400;">. </span></p>
<p><b>Gli ologrammi</b><span style="font-weight: 400;"> regalano un’eccezionale rappresentazione del mondo 3D e, cosa più importante, </span><b>offrono una prospettiva mutevole in base alla posizione dello spettatore, consentendo all’occhio di regolare la profondità</b><span style="font-weight: 400;">, mettendo a fuoco alternativamente il primo piano piuttosto che lo sfondo. </span></p>
<p><span style="font-weight: 400;">Partendo da questo, </span><b>i ricercatori del </b><a href="https://www.mit.edu"><b>Massachusetts Institute of Technology</b></a><b>, hanno generato ologrammi 3D in tempo reale avvalendosi di una rete neurale convoluzionale</b><span style="font-weight: 400;">, una tecnica di elaborazione che utilizza una catena di tensori addestrabili, per imitare approssimativamente il modo in cui gli esseri umani elaborano le informazioni visive. In altre parole, hanno generato immagini 3D tramite una </span><b>simulazione ottica creata grazie all’intelligenza artificiale</b><span style="font-weight: 400;">. </span></p>
<p><span style="font-weight: 400;">L’addestramento della sopracitata rete neurale è avvenuta attraverso un </span><b>set di big data creato ad hoc per la ricerca</b><span style="font-weight: 400;">, basato su “scene con forme e colori complessi e variabili”. Il team di ricerca tramite l’utilizzo di 4.000 coppie d’immagini, l’ologramma corrispondente e le informazioni specifiche su colore e profondità delle onde luminose, è riuscito a sviluppare una sorta di configurazione ottica. “Imparando” da ogni coppia di immagini precaricata, </span><b>la rete ha modificato i propri parametri di calcolo, migliorando così la capacità di generare ologrammi, ottimizzando di volta in volta il risultato finale</b><span style="font-weight: 400;">.</span></p>
<p>&nbsp;</p>
<p><img loading="lazy" decoding="async" class="alignnone size-full wp-image-25100" src="https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset.jpg" alt="" width="2011" height="1061" srcset="https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset.jpg 2011w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset-300x158.jpg 300w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset-1024x540.jpg 1024w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset-768x405.jpg 768w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset-1536x810.jpg 1536w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset-150x79.jpg 150w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset-696x367.jpg 696w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset-1392x734.jpg 1392w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset-1068x563.jpg 1068w, https://osservatorio.c-quadra.it/wp-content/uploads/2021/03/dataset-1920x1013.jpg 1920w" sizes="auto, (max-width: 2011px) 100vw, 2011px" /><i><span style="font-weight: 400;">Esempio di immagini contenute nel database usato dai ricercatori</span></i></p>
<p>&nbsp;</p>
<p><b>L’efficienza e la velocità raggiunta &#8211; pochi millisecondi per ologramma &#8211; ha sorpreso gli stessi componenti del team</b><span style="font-weight: 400;">, aprendo molteplici &#8211; seppur ipotetici &#8211; scenari di applicazione. Joel Kollin, uno dei principali optical architect di Microsoft, anche se non coinvolto nella ricerca, ha suggerito la possibilità di personalizzare queste visualizzazioni in base alla prescrizione oftalmica di uno spettatore, creando così immagini più nitide di quelle che egli sarebbe in grado di vedere con l’utilizzo di occhiali di correzione per aberrazioni di basso ordine. </span></p>
<p><b>L’olografia 3D in tempo reale potrebbe migliorare una serie di sistemi, dalla stampa 3D volumetrica, alla microscopia, fino ad arrivare alla VR</b><span style="font-weight: 400;">. Il team, guidato da </span><a href="http://people.csail.mit.edu/liangs/"><b>Liang Shi</b></a><b>, autore della ricerca e dottorando presso l’</b><a href="https://www.eecs.mit.edu"><b>EECS &#8211; Dipartimento di ingegneria ed informatica del MIT</b></a><span style="font-weight: 400;">, ha affermato che questo nuovo sistema potrebbe immergere gli spettatori VR in scenari più realistici, eliminando l’affaticamento agli occhi e gli altri effetti collaterali legati all’uso della realtà virtuale a lungo termine. </span></p>
<p><span style="font-weight: 400;">La tecnologia potrebbe essere facilmente implementata su display che modulano non solo la luminosità delle onde luminose, ma anche la loro fase e ipoteticamente potrebbe già essere messa a punto per gli ultimi modelli di smartphone. </span><span style="font-weight: 400;">Il lavoro di ricerca è stato supportato in parte anche da </span><span style="font-weight: 400;">SONY</span><span style="font-weight: 400;">. </span></p>
<p>&nbsp;</p>
<p><i><span style="font-weight: 400;">Per approfondire:</span></i></p>
<p><i><span style="font-weight: 400;">Shi, L., Li, B., Kim, C. et al. (2021) Towards real-time photorealistic 3D holography with deep neural networks. Nature 591, 234–239 </span></i><a href="https://doi.org/10.1038/s41586-020-03152-0"><i><span style="font-weight: 400;">https://doi.org/10.1038/s41586-020-03152-0</span></i></a></p>
<p>L'articolo <a href="https://osservatorio.c-quadra.it/sono-finalmente-arrivati-gli-ologrammi-3d-generati-in-tempo-reale/">Sono (finalmente) arrivati gli ologrammi 3D generati in tempo reale</a> proviene da <a href="https://osservatorio.c-quadra.it">Osservatorio C Quadra</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://osservatorio.c-quadra.it/sono-finalmente-arrivati-gli-ologrammi-3d-generati-in-tempo-reale/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>

<!--
Performance optimized by W3 Total Cache. Learn more: https://www.boldgrid.com/w3-total-cache/?utm_source=w3tc&utm_medium=footer_comment&utm_campaign=free_plugin

Page Caching using Disk: Enhanced 
Lazy Loading (feed)
Minified using Disk

Served from: osservatorio.c-quadra.it @ 2026-04-21 01:49:50 by W3 Total Cache
-->