tag:blogger.com,1999:blog-6867642390461114712024-03-12T18:31:44.149-07:00Psicología de la Percepción - UCMPáginas sobre la psicología de la percepción: teorías sobre la percepción visual y auditiva, ilusiones perceptivas y otros fenómenos perceptivos.Unknownnoreply@blogger.comBlogger31125tag:blogger.com,1999:blog-686764239046111471.post-86959520083358673682022-02-22T04:23:00.008-08:002022-02-22T04:27:37.982-08:00El cerebro hace que veamos con un retraso de varios segundos<p>Como una máquina del tiempo, introduce un retardo de hasta 15 segundos para darnos imágenes estables pero no exactas</p><div><div class="article-content row" style="background-color: white; border: 0px; box-sizing: inherit; display: flex; flex-wrap: wrap; font-size: 16px; justify-content: space-between; margin: 0px; padding: 0px;"><div class="column left-side col-12 col-md-8" style="-webkit-box-flex: 0; border: 0px; box-sizing: inherit; flex: 0 0 66.6667%; margin: 0px; max-width: 66.6667%; min-height: 1px; padding: 0px; position: relative; width: 660px;"><div class="article-multimedia-content" style="border: 0px; box-sizing: inherit; display: inline-block; font-family: Poppins, sans-serif; margin: 0px; padding: 0px; width: 660px;"><div class="aspect-ratio-img" style="border: 0px; box-sizing: inherit; margin: 0px; padding: 0px; position: relative;"><figure class="module-image horizontal article-multimedia-info" id="m414-413-415" itemprop="image" itemscope="" itemtype="https://schema.org/ImageObject" style="border: 0px; box-sizing: inherit; margin: 0px; padding: 0px; position: relative;"><figcaption class="image-description" id="m424-1-425" style="border: 0px; box-sizing: inherit; font-size: 0.75rem; line-height: 1.5em; margin: 0px; padding: 5px 0px; word-break: break-word;">Ilustración de cómo el cerebro actúa sobre el tiempo en la visión. <span class="dash" style="border: 0px; box-sizing: inherit; font-style: italic; margin: 0px; padding: 0px; word-break: break-word;">—</span> <span class="signature" style="border: 0px; box-sizing: inherit; font-style: italic; margin: 0px; padding: 0px; word-break: break-word;">CCO Public Domain</span><div class="image" id="m418-417-419" style="background: none; border: 0px; box-sizing: inherit; display: inline-block; margin: 0px; padding: 0px;"><img alt="13/02/2022 Jornada electoral" class="ImagenAperturaClick" itemprop="image" src="https://www.publico.es/files/article_main/uploads/2022/02/13/62095638d0177.jpeg" style="border: 0px; box-sizing: inherit; display: inline-block; filter: contrast(115%); margin: 0px; padding: 0px; width: 660px;" /></div></figcaption></figure></div></div><div class="article-body" style="border: 0px; box-sizing: inherit; margin: 0px; padding: 0px;"><div class="subscription-claim-exclusive" style="border: 0px; box-sizing: inherit; font-family: Poppins, sans-serif; margin: 0px; padding: 0px;"></div><header class="article-published-info" style="border: 0px; box-sizing: inherit; color: #999999; display: inline; float: right; font-size: 0.875rem; line-height: 1.3em; margin: 30px 0px 0px; padding: 0px; text-align: right; text-transform: uppercase; width: 660px;"><span style="font-family: arial;"><p class="place-container" style="border: 0px; box-sizing: inherit; display: inline; margin: 0px; padding: 0px; word-break: break-word;"><span class="place" id="m431-430-432" style="border: 0px; box-sizing: inherit; color: black; display: inline; font-size: 0.875rem; line-height: 1.3em; margin: 0px; padding: 0px 5px 0px 0px; word-break: break-word;">MADRID</span></p><time data-timestamp="1644873778" datetime="2022-02-14T22:22:58+01:00" style="border: 0px; box-sizing: inherit; margin: 0px; padding: 0px;"><a href="https://www.publico.es/archive/2022-02-14" style="border: 0px; box-sizing: inherit; color: black; margin: 0px; padding: 0px; text-decoration-line: none; transition: all 0.3s ease-in-out 0s;"><span class="published" data-timestamp="1644873778" style="border: 0px; box-sizing: inherit; margin: 0px; padding: 0px; word-break: break-word;">14/02/2022 22:22</span></a></time><span class="separator" style="border: 0px; box-sizing: inherit; font-size: 0.25rem; margin: 0px; padding: 0px 2px 0px 5px; position: relative; top: -3px; word-break: break-word;"><i aria-hidden="true" class="fas fa-circle" style="border: 0px; box-sizing: inherit; margin: 0px; padding: 0px;"></i></span> <span style="font-size: 0.875rem;">MALEN RUIZ DE ELVIRA</span></span></header><div class="article-text" style="border: 0px; box-sizing: inherit; display: inline-block; margin: 0px; padding: 0px; width: 660px;"><p class="pb-article-item-iteration" id="m334-333-335" style="border: 0px; box-sizing: inherit; font-family: "Noto Serif SC", serif; font-size: 1.0625rem; line-height: 1.7em; margin: 0px 0px 20px; padding: 0px; word-break: break-word;"></p><div class="separator" style="clear: both; text-align: left;"><br /></div><div class="separator" style="clear: both; text-align: left;"><a href="https://blogger.googleusercontent.com/img/a/AVvXsEgMn8WQvQUK5UZJRiJLZS3VyLas9XHpMxxXPqp_QA3XOrmCKGmtft8PCmVO6QCUvIACu2eliviVQzlXiHseUMh6H8AFHPGWH66KdYRbViVPdZRTChHsGKiI3sG-o0yWOVaEgLPz0jV0Xnb9HLJGghVggJINFKX-AI0THGHa-qD1bU-yKDLNpPuHokiJ" style="margin-left: 1em; margin-right: 1em;"><img alt="" data-original-height="43" data-original-width="200" height="43" src="https://blogger.googleusercontent.com/img/a/AVvXsEgMn8WQvQUK5UZJRiJLZS3VyLas9XHpMxxXPqp_QA3XOrmCKGmtft8PCmVO6QCUvIACu2eliviVQzlXiHseUMh6H8AFHPGWH66KdYRbViVPdZRTChHsGKiI3sG-o0yWOVaEgLPz0jV0Xnb9HLJGghVggJINFKX-AI0THGHa-qD1bU-yKDLNpPuHokiJ=w200-h43" width="200" /></a></div><br /><a href="https://www.publico.es/ciencias/cerebro-veamos-retraso-segundos.html" style="font-size: 1.0625rem;">enlace</a><p></p><p class="pb-article-item-iteration" id="m334-333-335" style="border: 0px; box-sizing: inherit; font-family: "Noto Serif SC", serif; font-size: 1.0625rem; line-height: 1.7em; margin: 0px 0px 20px; padding: 0px; word-break: break-word;">En muchas retransmisiones en directo la emisora introduce un pequeño retardo que le permite tener capacidad de reacción ante imprevistos importantes. Aunque no sea lo mismo, el cerebro también gestiona la información que llega a nuestros ojos para ofrecernos una síntesis estable con retraso de hasta 15 segundos, concluyen unos investigadores.</p><p class="pb-article-item-iteration" id="m339-1-340" style="border: 0px; box-sizing: inherit; font-family: "Noto Serif SC", serif; font-size: 1.0625rem; line-height: 1.7em; margin: 0px 0px 20px; padding: 0px; word-break: break-word;">¿Si los estímulos visuales que recibimos varían continuamente, sin orden ni concierto, por qué la percepción que tenemos, el resultado de lo que vemos, no es caótico sino notablemente estable? Es lo que se han preguntado unos científicos (y muchos otros antes que ellos) y han llegado a la conclusión de existe un <b style="border: 0px; box-sizing: inherit; margin: 0px; padding: 0px;">mecanismo cerebral activo de estabilización</b>, una ilusión visual que se basa en refrescar cada 15 segundos en vez de continuamente las imágenes que llegan a nuestros ojos para componer un resultado final suavizado y coherente sin esfuerzo por nuestra parte.</p><p class="pb-article-item-iteration" id="m339-1-340" style="border: 0px; box-sizing: inherit; font-family: "Noto Serif SC", serif; font-size: 1.0625rem; line-height: 1.7em; margin: 0px 0px 20px; padding: 0px; word-break: break-word;"><span style="font-size: 1.0625rem;">Así, la información visual de un objeto en cambio constante se funde a lo largo del tiempo hasta darle una estabilidad ilusoria que nos lo representa en </span><b style="border: 0px; box-sizing: inherit; font-size: 1.0625rem; margin: 0px; padding: 0px;">un momento del pasado</b><span style="font-size: 1.0625rem;">, explican los científicos en la revista </span><i style="border: 0px; box-sizing: inherit; font-size: 1.0625rem; margin: 0px; padding: 0px;">Science Advances</i><span style="font-size: 1.0625rem;">. Definen el cerebro como una máquina del tiempo que nos manda constantemente al pasado.</span></p><p class="pb-article-item-iteration" id="m344-2-345" style="border: 0px; box-sizing: inherit; font-family: "Noto Serif SC", serif; font-size: 1.0625rem; line-height: 1.7em; margin: 0px 0px 20px; padding: 0px; word-break: break-word;"><span style="font-size: 1.0625rem;">"Por un lado, el mundo visual se altera continuamente por cambios en la luz, el punto de vista y otros factores", explican los autores en</span><span style="font-size: 1.0625rem;"> </span><i style="border: 0px; box-sizing: inherit; font-size: 1.0625rem; margin: 0px; padding: 0px;">The Conversation.</i><span style="font-size: 1.0625rem;"> </span><span style="font-size: 1.0625rem;">"Por el otro la información visual que nos llega cambia constantemente debido</span><span style="font-size: 1.0625rem;"> </span><b style="border: 0px; box-sizing: inherit; font-size: 1.0625rem; margin: 0px; padding: 0px;">al parpadeo y a los movimientos</b><span style="font-size: 1.0625rem;"> </span><span style="font-size: 1.0625rem;">de nuestros ojos, cabeza y cuerpo" señalan Mauro Manassi, de la Universidad de Aberdeen y David Whitney, de la de California en Berkeley.</span></p><p class="pb-article-item-iteration" id="m354-4-355" style="border: 0px; box-sizing: inherit; font-family: "Noto Serif SC", serif; font-size: 1.0625rem; line-height: 1.7em; margin: 0px 0px 20px; padding: 0px; word-break: break-word;">Este batiburrillo variable de información es fácil de comprobar si vamos grabando con un móvil hacia delante mientras andamos y miramos también en otras direcciones. En una situación más estable no se perciben las fluctuaciones y <b style="border: 0px; box-sizing: inherit; margin: 0px; padding: 0px;">el ruido visual</b> que nos rodea y que es lo que llega a los ojos, pero no lo que creemos ver.</p><p class="pb-article-item-iteration" id="m359-5-360" style="border: 0px; box-sizing: inherit; font-family: "Noto Serif SC", serif; font-size: 1.0625rem; line-height: 1.7em; margin: 0px 0px 20px; padding: 0px; word-break: break-word;">El cerebro, creen los investigadores, en vez de analizar todas y cada una de las instantáneas, hace que percibamos la media de lo que vimos en los últimos 15 segundos, lo que no nos deja notar cambios sutiles pero también nos permite funcionar en la vida diaria. De otra forma, sentiríamos estar en <b style="border: 0px; box-sizing: inherit; margin: 0px; padding: 0px;">una alucinación constante</b>.</p><p class="pb-article-item-iteration" id="m359-5-360" style="border: 0px; box-sizing: inherit; font-family: "Noto Serif SC", serif; font-size: 1.0625rem; line-height: 1.7em; margin: 0px 0px 20px; padding: 0px; word-break: break-word;"><span style="font-size: 1.0625rem;">Para llegar a esta conclusión, los investigadores realizaron varios experimentos complicados con centenares de voluntarios. Algunos vieron un video de imágenes de caras que </span><b style="border: 0px; box-sizing: inherit; font-size: 1.0625rem; margin: 0px; padding: 0px;">envejecían o rejuvenecían</b><span style="font-size: 1.0625rem;"> a lo largo de 30 segundos. Cada participante valoraba una sola vez la edad final del vídeo. En general estimaron que el cambio era mucho menor que el real. </span></p><p class="pb-article-item-iteration" id="m369-7-370" style="border: 0px; box-sizing: inherit; font-family: "Noto Serif SC", serif; font-size: 1.0625rem; line-height: 1.7em; margin: 0px 0px 20px; padding: 0px; word-break: break-word;">Comparada con la edad estimada por otros participantes de las caras de referencia (la de <a href="https://www.publico.es/ciencias/innovacion-cientifica-luz-roja-recuperar-parcialmente-vision-perdida-edad.html" style="border: 0px; box-shadow: white 0px -1px 0px 0px inset, rgb(0, 159, 223) 0px -2px 0px 0px inset; box-sizing: inherit; color: #009fdf; margin: 0px; padding: 0px; text-decoration-line: none; text-shadow: white 0px -2px 0px, white 0px -1px 0px, white 0px 0px 0px, white 2px -2px 0px, white 2px -1px 0px, white 2px 0px 0px, white -2px -2px 0px, white -2px -1px 0px, white -2px 0px 0px, white 1px -2px 0px, white 1px -1px 0px, white 1px 0px 0px, white -1px -2px 0px, white -1px -1px 0px, white -1px 0px 0px, white 0px -2px 0px, white 0px -1px 0px, white 0px 0px 0px; transition: all 0.3s ease-out 0s;" title="Mirar una luz roja permite mejorar la visión en personas mayores">la persona mayor</a> y la de la persona joven), dieron como media una edad cinco años menor para la imagen final del que envejecía y una cinco años mayor para el que rejuvenecía, como si estuvieran viendo la imagen de la mitad del video, a los 15 segundos, y no la final. </p><p class="pb-article-item-iteration" id="m374-8-375" style="border: 0px; box-sizing: inherit; font-family: "Noto Serif SC", serif; font-size: 1.0625rem; line-height: 1.7em; margin: 0px 0px 20px; padding: 0px; word-break: break-word;">Además de varios experimentos más de este tipo repitieron algunos añadiendo ruido sonoro variable y comprobaron que el ruido ambiente altera la percepción visual llevándola todavía más al pasado.</p><p class="pb-article-item-iteration" id="m374-8-375" style="border: 0px; box-sizing: inherit; font-family: "Noto Serif SC", serif; font-size: 1.0625rem; line-height: 1.7em; margin: 0px 0px 20px; padding: 0px; word-break: break-word;"><span style="font-size: 1.0625rem;">Estos investigadores no creen que el que ellos describen sea el único mecanismo existente para la ilusión perceptiva de estabilidad de la visión (se han sugerido y estudiado otros) y piensan que reciclamos información del pasado porque es más eficiente, más rápido y da menos trabajo al cerebro.</span></p><p class="pb-article-item-iteration" id="m384-10-385" style="border: 0px; box-sizing: inherit; font-family: "Noto Serif SC", serif; font-size: 1.0625rem; line-height: 1.7em; margin: 0px 0px 20px; padding: 0px; word-break: break-word;">"Nuestro sistema visual a veces <b style="border: 0px; box-sizing: inherit; margin: 0px; padding: 0px;">sacrifica la exactitud</b> para lograr una experiencia visual fluida del mundo que nos rodea", aseguran. Sin embargo, alertan de los efectos negativos del retardo con que procesa el cerebro.</p><p class="pb-article-item-iteration" id="m389-11-390" style="border: 0px; box-sizing: inherit; font-family: "Noto Serif SC", serif; font-size: 1.0625rem; line-height: 1.7em; margin: 0px 0px 20px; padding: 0px; word-break: break-word;">Sin embargo, alertan de <b style="border: 0px; box-sizing: inherit; margin: 0px; padding: 0px;">los efectos negativos</b> del retardo con que procesa el cerebro. Puede, por ejemplo, dar lugar a equivocaciones cuando se ven muchas imágenes distintas muy seguidas, como sucede al <b style="border: 0px; box-sizing: inherit; margin: 0px; padding: 0px;">analizar radiografías médicas</b> para hacer diagnósticos.</p><p class="pb-article-item-iteration" id="m389-11-390" style="border: 0px; box-sizing: inherit; font-family: "Noto Serif SC", serif; font-size: 1.0625rem; line-height: 1.7em; margin: 0px 0px 20px; padding: 0px; word-break: break-word;"><span style="font-size: 1.0625rem;">Por otra parte, no es el único caso en el que pesa el pasado porque, como recuerdan, nuestras decisiones cotidianas en cualquier situación siempre e inevitablemente están influidas por nuestra experiencia anterior.</span></p></div></div></div></div></div>Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-22361395658633589682020-12-12T01:35:00.001-08:002020-12-12T01:38:38.176-08:00Escaleras ambiguas, espejos inexistentes y objetos imposibles: las mejores ilusiones ópticas del año<header class="encabezado" style="border: 0px; color: #666666; font-family: Lato, serif; font-size: 17px; font-stretch: inherit; font-variant-east-asian: inherit; font-variant-numeric: inherit; line-height: inherit; margin: 0px 0px 0px 40px; padding: 0px; vertical-align: baseline;"><div id="subtitulo_noticia" style="border: 0px; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"><h2 class="subtitulo" itemprop="alternativeHeadline" style="border: 0px; color: #444444; font-family: "Droid Serif", serif; font-size: 16px; font-stretch: inherit; font-style: inherit; font-variant: inherit; font-weight: normal; line-height: 21px; margin: 0px; padding: 0px 0px 10px 34px; position: relative; vertical-align: baseline; z-index: 1;"><img alt="" data-original-height="200" data-original-width="200" height="105" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhN3yKwk2zr9uXjaO8IRYxjvZrkKYiSFaGU1G2h8sxzVEwRJNCfk2k6HgNvN2T9M7z0bZoG3UwLGah6SlIfhUn2sqs-G0us4DQNe4wcsV2MW6ve6GmVyfCGqRnGJO9o3TUgCWdaN_WUeKY/w105-h105/image.png" width="105" /> <a class="autor" href="https://verne.elpais.com/autor/jaime_rubio_hancock/a/" itemprop="author" style="border: 0px; color: #03b282; font-family: inherit; font-size: inherit; font-stretch: inherit; font-style: inherit; font-variant: inherit; font-weight: 700; line-height: inherit; margin: 0px; padding: 0px; text-decoration-line: none; text-transform: uppercase; vertical-align: baseline;" title="Ver todas las noticias de Jaime Rubio Hancock">JAIME RUBIO HANCOCK </a><time class="actualizado" datetime="2020-12-12T08:34:14+01:00" itemprop="dateModified" style="border: 0px; color: black; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"> <a href="https://verne.elpais.com/tag/fecha/20201212" style="border: 0px; color: black; font: inherit; margin: 0px; padding: 0px; text-decoration-line: none; vertical-align: baseline;" title="Ver todas las noticias de esta
fecha">12 DIC 2020</a></time></h2><h2 class="subtitulo" itemprop="alternativeHeadline" style="border: 0px; color: #444444; font-family: "Droid Serif", serif; font-size: 16px; font-stretch: inherit; font-style: inherit; font-variant: inherit; font-weight: normal; line-height: 21px; margin: 0px; padding: 0px 0px 10px 34px; position: relative; vertical-align: baseline; z-index: 1;"><span style="font-style: inherit; font-variant-caps: inherit; font-variant-ligatures: inherit;">El concurso está organizado por el Laboratorio de Neurociencia Integrativa de la Universidad del Estado de Nueva York</span></h2></div></header><figure class="foto centro" itemprop="image" itemscope="" itemtype="https://schema.org/ImageObject" style="border: 0px; color: #666666; font-family: Lato, serif; font-size: 17px; font-stretch: inherit; font-variant-east-asian: inherit; font-variant-numeric: inherit; line-height: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"><img alt="" height="360" pinger-seen="true" src="https://ep01.epimg.net/verne/imagenes/2020/12/11/articulo/1607678299_624074_1607694299_noticia_normal.gif" style="border: 0px; display: block; font: inherit; height: auto; margin: 0px; max-width: 100%; padding: 0px; vertical-align: baseline;" title="" width="630" /></figure><div><span face="Roboto, sans-serif"><span style="font-size: 12px;"><b><br /></b></span></span><span style="color: #666666; font-family: Lato, serif; font-size: 17px;"></span><div class="cuerpo" id="cuerpo_noticia" itemprop="articleBody" style="border: 0px; color: #666666; font-family: Lato, serif; font-size: 17px; font-stretch: inherit; font-variant-east-asian: inherit; font-variant-numeric: inherit; line-height: 26px; margin: 0px 0px 50px 40px; padding: 0px; vertical-align: baseline;"><p dir="ltr" style="border: 0px; font: inherit; margin: 0px 0px 25px; padding: 0px; vertical-align: baseline;">Las ilusiones ópticas no son solo pasatiempos, que ya estaría bien. También nos ayudan a entender cómo funciona la percepción, al darnos pistas sobre las operaciones que lleva a cabo el cerebro para construir e interpretar lo que vemos.</p><div data-google-query-id="CL71h-SQyO0CFUg40wodS0cOtA" iat-insr="0" id="elpais_gpt-INTEXT" style="border: 0px; font: inherit; height: 0px; margin: 0px; padding: 0px; vertical-align: baseline; width: 0px;" tg-zone-original="518437.00"><div id="google_ads_iframe_7811748/elpais_verne_web/articulo/intext_0__container__" style="border: 0pt none; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;" tg-zone="518437.00"><iframe data-google-container-id="6" data-load-complete="true" frameborder="0" height="1" id="google_ads_iframe_7811748/elpais_verne_web/articulo/intext_0" marginheight="0" marginwidth="0" name="google_ads_iframe_7811748/elpais_verne_web/articulo/intext_0" scrolling="no" style="border-style: initial; border-width: 0px; display: block; font: inherit; margin-bottom: 0px; margin-left: auto !important; margin-right: auto !important; margin-top: 0px; padding: 0px; vertical-align: bottom;" title="3rd party ad content" width="1"></iframe></div></div><p dir="ltr" style="border: 0px; font: inherit; margin: 0px 0px 25px; padding: 0px; vertical-align: baseline;">Este viernes se han conocido las tres mejores ilusiones creadas en 2020, según el concurso <a href="http://illusionoftheyear.com/" style="border: 0px; color: #03b282; font: inherit; margin: 0px; padding: 0px; text-decoration-line: none; vertical-align: baseline;">The Illusion Of The Year Contest</a>. Susana Martínez-Conde, directora del Laboratorio de Neurociencia Integrativa en la Universidad del Estado de Nueva York, organiza este certamen desde 2005, cuando arrancó en su ciudad natal, A Coruña. Un grupo de expertos seleccionó las <a href="http://illusionoftheyear.com/cat/top-10-finalists/2020/" style="border: 0px; color: #03b282; font: inherit; margin: 0px; padding: 0px; text-decoration-line: none; vertical-align: baseline;">diez ilusiones finalistas</a>, y las tres ganadoras de esta XVI edición se han decidido por votación en la web de los premios.</p><div id="_wmass_5842000000120606" style="border: 0px; font: inherit; margin: 0px; padding: 0px; position: relative; vertical-align: baseline;" w-type="outstream"><div class="St_jw-2060620606" id="jw-2060620606" style="border: 0px; font: inherit; height: 0px; margin-bottom: 25px !important; margin-left: 0px; margin-right: 0px; margin-top: 0px; margin: 0px 0px 25px; padding-bottom: 0px; padding-left: 0px; padding-right: 0px; padding-top: 25px !important; padding: 25px 0px 0px; position: relative; transition: padding 0.5s ease 0s; vertical-align: baseline; width: 590px;"><div class="wm-wrapper" style="border-bottom: 10px solid transparent; border-image: initial; border-left: 0px; border-right: 0px; border-top: 15px solid transparent; font: inherit; inset: 0px; margin: 0px; padding: 0px; position: absolute; vertical-align: baseline;"><div class="wm-aspect" style="border: 0px; font: inherit; margin: 0px; padding-bottom: 25px !important; padding-left: 0px; padding-right: 0px; padding-top: 0px; padding: 0px 0px 25px; vertical-align: baseline;"></div><div class="wm-media" style="border: 0px; font: inherit; height: 331.875px; inset: 0px; margin: 0px; padding: 0px; position: absolute; vertical-align: baseline; width: 590px;"><iframe border="no" height="360" id="jw-2060620606SI_Ban" name="jw-2060620606SI_Ban" scrolling="no" src="about:blank" style="background-color: rgb(0, 0, 0) !important; border-style: initial; border-width: 0px; display: block; font: inherit; height: 0px; left: 0px; margin-bottom: 0px; margin-left: auto !important; margin-right: auto !important; margin-top: 0px; padding: 0px; position: absolute; top: 0px; vertical-align: baseline; width: 590px; z-index: 4 !important;" width="640"></iframe><div class="wm-decorations" style="border: 0px; display: inline-grid; font: inherit; grid-template-columns: 7.5% 7.5% 1fr 50% 1fr 7.5% 7.5%; grid-template-rows: 15% 1fr 50% 1fr 15%; height: 331.875px; margin: 0px; padding: 0px; position: relative; vertical-align: baseline; width: 590px;"></div></div><div class="wm-publi" style="background-color: #e3e3e3; border: 0px; color: #9d9d9c; font-family: Calibri, sans-serif, sans; font-size: 10px; font-stretch: inherit; font-style: inherit; font-variant: inherit; font-weight: inherit; height: 15px; left: 0px; line-height: 15px; margin: 0px; padding: 0px; position: absolute; text-align: center; top: -15px; user-select: none; vertical-align: baseline; width: 590px; z-index: 3;">PUBLICIDAD</div></div></div></div><p dir="ltr" style="border: 0px; font: inherit; margin: 0px 0px 25px; padding: 0px; vertical-align: baseline;"><strong style="border: 0px; font-family: inherit; font-size: inherit; font-stretch: inherit; font-style: inherit; font-variant: inherit; line-height: inherit; margin: 0px; padding: 0px; vertical-align: baseline;">1. Una escalera de Schröder en 3D</strong></p><a name="sumario_1" style="border: 0px; color: #03b282; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"></a><div class="centro" id="sumario_1|video" style="border: 0px; clear: both; font: inherit; margin: 20px 0px; padding: 0px; vertical-align: baseline;"><div class="media" id="videonoticia" style="border: 0px; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"><figure class="foto centro" itemprop="image" itemscope="" itemtype="https://schema.org/ImageObject" style="border: 0px; clear: both; font: inherit; margin: 0px auto; max-width: 560px; padding: 0px; vertical-align: baseline;"><div class="MPEP_video_externo" id="multimediaPlayer_074620142" style="border: 0px; font: inherit; height: 0px; margin: 0px; padding: 0px 0px 315px; position: relative; vertical-align: baseline; width: 560px;"><iframe allowfullscreen="" frameborder="0" height="100%" mozallowfullscreen="" scrolling="no" src="https://www.youtube.com/embed/5DYeAkx2IBo?wmode=transparent" style="border-style: initial; border-width: 0px; display: block; font: inherit; margin-bottom: 0px; margin-left: auto !important; margin-right: auto !important; margin-top: 0px; padding: 0px; position: absolute; vertical-align: baseline;" webkitallowfullscreen="" width="100%"></iframe></div></figure><div class="sumario-texto" style="border: 0px; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"></div></div></div><p dir="ltr" style="border: 0px; font: inherit; margin: 0px 0px 25px; padding: 0px; vertical-align: baseline;">La ilusión ganadora es obra de Kokichi Sugihara, un matemático de la universidad japonesa de Meiji. Sugihara reinterpreta una ilusión clásica creada en 1858 por el científico Heinrich G. F. Schröder, y la rehace en tres dimensiones. En esta escalera, el cono que se coloca en un extremo parece estar arriba o abajo, según giremos el objeto 180 grados.</p><p dir="ltr" style="border: 0px; font: inherit; margin: 0px 0px 25px; padding: 0px; vertical-align: baseline;">Martínez-Conde explica a <em style="border: 0px; font-family: inherit; font-size: inherit; font-stretch: inherit; font-variant: inherit; font-weight: inherit; line-height: inherit; margin: 0px; padding: 0px; vertical-align: baseline;">Verne</em> que la perspectiva es una de las claves: si la cámara estuviera algo más arriba o más abajo, el efecto se perdería. También apunta que al natural podría ser más fácil distinguir que no hay ningún cambio de altura en la superficie del objeto.</p><p dir="ltr" style="border: 0px; font: inherit; margin: 0px 0px 25px; padding: 0px; vertical-align: baseline;">Sugihara es uno de los habituales de este certamen: lo ganó en 2018, <a href="https://verne.elpais.com/verne/2018/10/20/articulo/1540041568_555696.html" style="border: 0px; color: #03b282; font: inherit; margin: 0px; padding: 0px; text-decoration-line: none; vertical-align: baseline;">con un objeto que presentaba una ambigüedad triple</a>, y en 2016 quedó segundo <a href="https://verne.elpais.com/verne/2016/07/04/articulo/1467634069_128728.html" style="border: 0px; color: #03b282; font: inherit; margin: 0px; padding: 0px; text-decoration-line: none; vertical-align: baseline;">con otro trabajo similar</a>, unos cilindros que parecían completamente diferentes al reflejarse en el espejo.</p><a name="sumario_4" style="border: 0px; color: #03b282; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"></a><div class="centro" id="sumario_4|video" style="border: 0px; clear: both; font: inherit; margin: 20px 0px; padding: 0px; vertical-align: baseline;"><div class="media" id="videonoticia" style="border: 0px; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"><figure class="foto centro" itemprop="image" itemscope="" itemtype="https://schema.org/ImageObject" style="border: 0px; clear: both; font: inherit; margin: 0px auto; max-width: 560px; padding: 0px; vertical-align: baseline;"><div class="MPEP_video_externo" id="multimediaPlayer_065417570" style="border: 0px; font: inherit; height: 0px; margin: 0px; padding: 0px 0px 315px; position: relative; vertical-align: baseline; width: 560px;"><iframe allowfullscreen="" frameborder="0" height="100%" mozallowfullscreen="" scrolling="no" src="https://www.youtube.com/embed/oWfFco7K9v8?wmode=transparent" style="border-style: initial; border-width: 0px; display: block; font: inherit; margin-bottom: 0px; margin-left: auto !important; margin-right: auto !important; margin-top: 0px; padding: 0px; position: absolute; vertical-align: baseline;" webkitallowfullscreen="" width="100%"></iframe></div></figure><div class="sumario-texto" style="border: 0px; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"></div></div></div><p dir="ltr" style="border: 0px; font: inherit; margin: 0px 0px 25px; padding: 0px; vertical-align: baseline;"><strong style="border: 0px; font-family: inherit; font-size: inherit; font-stretch: inherit; font-style: inherit; font-variant: inherit; line-height: inherit; margin: 0px; padding: 0px; vertical-align: baseline;">2. Lo auténtico<br /></strong></p><a name="sumario_2" style="border: 0px; color: #03b282; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"></a><div class="centro" id="sumario_2|video" style="border: 0px; clear: both; font: inherit; margin: 20px 0px; padding: 0px; vertical-align: baseline;"><div class="media" id="videonoticia" style="border: 0px; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"><figure class="foto centro" itemprop="image" itemscope="" itemtype="https://schema.org/ImageObject" style="border: 0px; clear: both; font: inherit; margin: 0px auto; max-width: 560px; padding: 0px; vertical-align: baseline;"><div class="MPEP_video_externo" id="multimediaPlayer_705543007" style="border: 0px; font: inherit; height: 0px; margin: 0px; padding: 0px 0px 315px; position: relative; vertical-align: baseline; width: 560px;"><iframe allowfullscreen="" frameborder="0" height="100%" mozallowfullscreen="" scrolling="no" src="https://www.youtube.com/embed/PIF2_S-tJpA?wmode=transparent" style="border-style: initial; border-width: 0px; display: block; font: inherit; margin-bottom: 0px; margin-left: auto !important; margin-right: auto !important; margin-top: 0px; padding: 0px; position: absolute; vertical-align: baseline;" webkitallowfullscreen="" width="100%"></iframe></div></figure><div class="sumario-texto" style="border: 0px; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"></div></div></div><p dir="ltr" style="border: 0px; font: inherit; margin: 0px 0px 25px; padding: 0px; vertical-align: baseline;">En el segundo trabajo premiado vemos una serie de ilusiones en las que un marco nos condiciona para creer que estamos ante un espejo, como <a href="https://www.youtube.com/watch?v=pvFKDEJpQSA" style="border: 0px; color: #03b282; font: inherit; margin: 0px; padding: 0px; text-decoration-line: none; vertical-align: baseline;">en la escena de los hermanos Marx en <em style="border: 0px; font-family: inherit; font-size: inherit; font-stretch: inherit; font-variant: inherit; font-weight: inherit; line-height: inherit; margin: 0px; padding: 0px; vertical-align: baseline;">Sopa de ganso</em></a><em style="border: 0px; font-family: inherit; font-size: inherit; font-stretch: inherit; font-variant: inherit; font-weight: inherit; line-height: inherit; margin: 0px; padding: 0px; vertical-align: baseline;">.</em> La ilusión persiste incluso cuando vamos eliminando factores que nos ayudan a pensar que estamos en esta situación, como los fondos. El autor de la ilusión, el mago y divulgador científico Matt Pritchard, nos avisa en la descripción de la ilusión de que, por poco que nos fijemos, veremos discrepancias en la imagen sin que eso haga que desaparezca el efecto.</p><p dir="ltr" style="border: 0px; font: inherit; margin: 0px 0px 25px; padding: 0px; vertical-align: baseline;">Sobre esto último, Martínez-Conde explica que influye el hecho de que el trabajo de Pritchard parta de objetos cotidianos, la lata y el espejo, que creemos que conocemos muy bien. “Nuestro cerebro tiende a hacer predicciones”, explica, y ante información ambigua y posibilidades incompatibles “juega con las probabilidades”. Si vemos un marco y dos objetos iguales contrapuestos, es más fácil pensar que se trata de un espejo, porque es la interpretación más habitual. Hasta que no vemos discrepancias que llaman nuestra atención no entramos a analizar los detalles.</p><p dir="ltr" style="border: 0px; font: inherit; margin: 0px 0px 25px; padding: 0px; vertical-align: baseline;"><strong style="border: 0px; font-family: inherit; font-size: inherit; font-stretch: inherit; font-style: inherit; font-variant: inherit; line-height: inherit; margin: 0px; padding: 0px; vertical-align: baseline;">3. La topografía de cuadrícula imposible</strong></p><a name="sumario_3" style="border: 0px; color: #03b282; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"></a><div class="centro" id="sumario_3|video" style="border: 0px; clear: both; font: inherit; margin: 20px 0px; padding: 0px; vertical-align: baseline;"><div class="media" id="videonoticia" style="border: 0px; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"><figure class="foto centro" itemprop="image" itemscope="" itemtype="https://schema.org/ImageObject" style="border: 0px; clear: both; font: inherit; margin: 0px auto; max-width: 560px; padding: 0px; vertical-align: baseline;"><div class="MPEP_video_externo" id="multimediaPlayer_679851417" style="border: 0px; font: inherit; height: 0px; margin: 0px; padding: 0px 0px 315px; position: relative; vertical-align: baseline; width: 560px;"><iframe allowfullscreen="" frameborder="0" height="100%" mozallowfullscreen="" scrolling="no" src="https://www.youtube.com/embed/QUxVfsTEx1c?wmode=transparent" style="border-style: initial; border-width: 0px; display: block; font: inherit; margin-bottom: 0px; margin-left: auto !important; margin-right: auto !important; margin-top: 0px; padding: 0px; position: absolute; vertical-align: baseline;" webkitallowfullscreen="" width="100%"></iframe></div></figure><div class="sumario-texto" style="border: 0px; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"></div></div></div><p dir="ltr" style="border: 0px; font: inherit; margin: 0px 0px 25px; padding: 0px; vertical-align: baseline;">El tercer premio es para el diseñador Daniël Maarleveld, que muestra también objetos imposibles en 2D. “Lo novedoso y original de esta ilusión -explica Martínez-Conde- es el movimiento”. En la imagen vemos cómo, por ejemplo, la parte de abajo de un objeto parece ser la superior, o la frontal pasa a estar delante. Estamos, de nuevo, ante información ambigua y, además, el movimiento hace que “nuestro cerebro se cuestione la realidad continuamente, reevaluando su interpretación”.</p><p dir="ltr" style="border: 0px; font: inherit; margin: 0px 0px 25px; padding: 0px; vertical-align: baseline;">Aparte de estas ilusiones ganadoras, Martínez-Conde destaca de entre las otras siete finalistas la de estas mariquitas, creada por Mark Wexler, Patrick Cavanagh y Stuart Anstis, de las universidades de París, York y California-San Diego. El insecto parece cambiar de posición, mostrando “lo importante que es el contexto para nuestra percepción”.</p><a name="sumario_5" style="border: 0px; color: #03b282; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"></a><div class="centro" id="sumario_5|video" style="border: 0px; clear: both; font: inherit; margin: 20px 0px; padding: 0px; vertical-align: baseline;"><div class="media" id="videonoticia" style="border: 0px; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"><figure class="foto centro" itemprop="image" itemscope="" itemtype="https://schema.org/ImageObject" style="border: 0px; clear: both; font: inherit; margin: 0px auto; max-width: 560px; padding: 0px; vertical-align: baseline;"><div class="MPEP_video_externo" id="multimediaPlayer_435523445" style="border: 0px; font: inherit; height: 0px; margin: 0px; padding: 0px 0px 315px; position: relative; vertical-align: baseline; width: 560px;"><iframe allowfullscreen="" frameborder="0" height="100%" mozallowfullscreen="" scrolling="no" src="https://www.youtube.com/embed/nT2fSioLHAc?wmode=transparent" style="border-style: initial; border-width: 0px; display: block; font: inherit; margin-bottom: 0px; margin-left: auto !important; margin-right: auto !important; margin-top: 0px; padding: 0px; position: absolute; vertical-align: baseline;" webkitallowfullscreen="" width="100%"></iframe></div></figure><div class="sumario-texto" style="border: 0px; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"></div></div></div><p dir="ltr" style="border: 0px; font: inherit; margin: 0px 0px 25px; padding: 0px; vertical-align: baseline;">También destaca esta otra en la que los subtítulos parecen estar más cerca cuanto más rápido se mueven. No recuerda que se haya descrito antes.</p><a name="sumario_6" style="border: 0px; color: #03b282; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"></a><div class="centro" id="sumario_6|video" style="border: 0px; clear: both; font: inherit; margin: 20px 0px; padding: 0px; vertical-align: baseline;"><div class="media" id="videonoticia" style="border: 0px; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"><figure class="foto centro" itemprop="image" itemscope="" itemtype="https://schema.org/ImageObject" style="border: 0px; clear: both; font: inherit; margin: 0px auto; max-width: 560px; padding: 0px; vertical-align: baseline;"><div class="MPEP_video_externo" id="multimediaPlayer_752684355" style="border: 0px; font: inherit; height: 0px; margin: 0px; padding: 0px 0px 315px; position: relative; vertical-align: baseline; width: 560px;"><iframe allowfullscreen="" frameborder="0" height="100%" mozallowfullscreen="" scrolling="no" src="https://www.youtube.com/embed/O18AQA1hSvM?wmode=transparent" style="border-style: initial; border-width: 0px; display: block; font: inherit; margin-bottom: 0px; margin-left: auto !important; margin-right: auto !important; margin-top: 0px; padding: 0px; position: absolute; vertical-align: baseline;" webkitallowfullscreen="" width="100%"></iframe></div></figure><div class="sumario-texto" style="border: 0px; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"></div></div></div><p dir="ltr" style="border: 0px; font: inherit; margin: 0px 0px 25px; padding: 0px; vertical-align: baseline;">Y, por último, esta en la que podemos crear la ilusión de que un cuchillo es transparente y que además podemos recrear en casa. De forma similar a la ilusión de Pritchard y el espejo, en las imágenes hay detalles que contradicen esta interpretación, como otros reflejos del texto en el cuchillo, pero prima la continuidad en las púas del tenedor.</p><a name="sumario_7" style="border: 0px; color: #03b282; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"></a><div class="centro" id="sumario_7|video" style="border: 0px; clear: both; font: inherit; margin: 20px 0px; padding: 0px; vertical-align: baseline;"><div class="media" id="videonoticia" style="border: 0px; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"><figure class="foto centro" itemprop="image" itemscope="" itemtype="https://schema.org/ImageObject" style="border: 0px; clear: both; font: inherit; margin: 0px auto; max-width: 560px; padding: 0px; vertical-align: baseline;"><div class="MPEP_video_externo" id="multimediaPlayer_705959928" style="border: 0px; font: inherit; height: 0px; margin: 0px; padding: 0px 0px 315px; position: relative; vertical-align: baseline; width: 560px;"><iframe allowfullscreen="" frameborder="0" height="100%" mozallowfullscreen="" scrolling="no" src="https://www.youtube.com/embed/jVtyeau4YLc?wmode=transparent" style="border-style: initial; border-width: 0px; display: block; font: inherit; margin-bottom: 0px; margin-left: auto !important; margin-right: auto !important; margin-top: 0px; padding: 0px; position: absolute; vertical-align: baseline;" webkitallowfullscreen="" width="100%"></iframe></div></figure><div class="sumario-texto" style="border: 0px; font: inherit; margin: 0px; padding: 0px; vertical-align: baseline;"></div></div></div><p class="nota_pie" style="border: 0px; font-family: inherit; font-size: 12px; font-stretch: inherit; font-style: inherit; font-variant: inherit; font-weight: inherit; line-height: 18px; margin: 0px 0px 15px; padding: 0px; vertical-align: baseline;">*</p></div></div>Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-70791827445842147752019-06-16T10:24:00.000-07:002019-06-16T10:28:14.220-07:00Todas estas esferas son del mismo color: las ves distintas por un efecto óptico<strong></strong><br />
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhOvXODgVS3Yxi1RxOgkQxPgcZjl2vQ-0fqQrd2kHf8yZNDLVDAPbpYzcKtRg8zHYz3co1EppD8miptDg-WvWEV2AbTxq0m7p-tEs5ShNR1hPrbhTHdTpWD2Wijx6d5nq6_xuuATIpJzKto/s1600/el+pais.png"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhOvXODgVS3Yxi1RxOgkQxPgcZjl2vQ-0fqQrd2kHf8yZNDLVDAPbpYzcKtRg8zHYz3co1EppD8miptDg-WvWEV2AbTxq0m7p-tEs5ShNR1hPrbhTHdTpWD2Wijx6d5nq6_xuuATIpJzKto/s200/el+pais.png" /></a><br />
<br />
Emilio Sánchez Hidalgo <br />
16 JUN 2019<br />
<div class="barra_meta">
<a href="https://verne.elpais.com/verne/2019/06/16/articulo/1560679610_830544.html">enlace</a></div>
<div class="barra_meta">
<time class="actualizado" datetime="2019-06-16T13:20:26+02:00" itemprop="dateModified"></time> </div>
<!--== .meta ==--><strong>"El sistema visual humano tiene una mayor agudeza para las formas que para el color", dice el autor de la imagen</strong><br />
<div class="cuerpo" id="cuerpo_noticia" itemprop="articleBody">
<br />
En la imagen del siguiente tuit hay 12 esferas. Parece que hay cuatro azuladas, cuatro rojizas y cuatro verdes. Sin embargo, las 12 son marrones.<br />
<div class="centro">
<a href="https://www.blogger.com/null" name="sumario_1"></a>
</div>
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjS-I495PghXGilWLyxIb-vBjxpdfVl_MgU0tgkldMWMYd1cZMfjm8cw8sys0ltFpqIvzEKwEKQEPYJFAiOtZrl33OwgJNuvwERf_f6k0A0wWA4puGohSyOHs2NsOpkeGolABnihnNmrCo/s1600/Sin+t%25C3%25ADtulo1.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="624" data-original-width="844" height="295" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjS-I495PghXGilWLyxIb-vBjxpdfVl_MgU0tgkldMWMYd1cZMfjm8cw8sys0ltFpqIvzEKwEKQEPYJFAiOtZrl33OwgJNuvwERf_f6k0A0wWA4puGohSyOHs2NsOpkeGolABnihnNmrCo/s400/Sin+t%25C3%25ADtulo1.jpg" width="400" /></a></div>
<div class="centro">
</div>
<div class="centro">
</div>
<div class="autor_cita">
Todas las bolas son del mismo color. ¡Y ese color es marrón!</div>
<div data-google-query-id="CKuti6S-7uICFVSA3god5KkGsg" id="elpais_gpt-INTEXT" style="height: 0px; width: 0px;">
<div id="google_ads_iframe_7811748/elpais_verne_web/articulo/intext_0__container__" style="border-image: none; border: 0pt currentColor;">
<iframe data-google-container-id="4" data-load-complete="true" frameborder="0" height="1" id="google_ads_iframe_7811748/elpais_verne_web/articulo/intext_0" marginheight="0" marginwidth="0" name="google_ads_iframe_7811748/elpais_verne_web/articulo/intext_0" scrolling="no" style="border-image: none; border: 0px currentColor; vertical-align: bottom;" title="3rd party ad content" width="1"></iframe><br /></div>
</div>
El tuit se ha compartido más de 68.000 veces en dos días desde el 14 de junio y lleva 161.000 me gusta. El autor de la imagen es David Novick, profesor de Ingeniería de la Universidad de Texas (Estados Unidos), experto en ilusiones ópticas. Si todavía dudas sobre el color de las esferas, aquí puedes ver la imagen sin que las barras horizontales pasen por encima.<br />
<iframe class="teads-resize" style="border-image: none; border: currentColor !important; display: block !important; height: 0px !important; margin: 0px !important; min-height: 0px !important; padding: 0px !important; width: 100% !important;"></iframe><br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiS-LSmUjp7N4fq9n-yRv0B3BCCDE-DgR33dh_381Gwu4tXu0lNBtq52qTbfncAnaA25RNB31cGmBGhcH5SnFrbPwBEI3SnU0wepuIzJHVbnMPcTt7GUx-nujS4jAg46969s0Zacc02QT8/s1600/Sin+t%25C3%25ADtulo2.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="625" data-original-width="847" height="295" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiS-LSmUjp7N4fq9n-yRv0B3BCCDE-DgR33dh_381Gwu4tXu0lNBtq52qTbfncAnaA25RNB31cGmBGhcH5SnFrbPwBEI3SnU0wepuIzJHVbnMPcTt7GUx-nujS4jAg46969s0Zacc02QT8/s400/Sin+t%25C3%25ADtulo2.jpg" width="400" /></a></div>
<br />
<div class="centro" id="sumario_2|html">
<a href="https://www.blogger.com/null" name="sumario_2"></a><br />
<div class="autor_cita">
¡Muy bien! Esto coincide con el fondo original quitando las rayas.</div>
</div>
<strong></strong><br />
<strong>¿Por qué no las veo marrones?</strong><br />
Este efecto óptico <a href="https://michaelbach.de/ot/col-Munker/index.html" target="_blank">se llama ilusión de Munker</a>, según nos explica el autor de la imagen. "En pocas palabras, el sistema visual humano tiene una mayor agudeza para las formas que para el color. Así que mientras las formas de los círculos y las rayas se ven nítidas, sus colores, especialmente de las rayas, se extienden sobre las bolas", explica Novick a <em>Verne</em> por correo electrónico.<br />
Esta ilusión óptica "afecta a nuestra percepción del color de fondo, por lo que las rayas azules sobre un círculo amarillo tienden a hacer que el círculo parezca verde. Este tipo de efecto depende, por supuesto, de lo cerca que estén las franjas del primer plano", añade. Si acercamos esas franjas, como explica Novick, se diluye esta ilusión óptica.<br />
<div class="centro" id="sumario_3|foto">
<a href="https://www.blogger.com/null" name="sumario_3"></a><br />
<div class="media">
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><img alt="" height="160" src="https://ep01.epimg.net/verne/imagenes/2019/06/16/articulo/1560679610_830544_1560680592_sumario_normal.jpg" style="margin-left: auto; margin-right: auto;" title="" width="400" /></td></tr>
<tr><td class="tr-caption" style="text-align: center;">De cerca, el color de las esferas parece diferente</td></tr>
</tbody></table>
<figure class="foto" itemprop="image" itemscope="" itemtype="https://schema.org/ImageObject"> <figcaption class="pie" itemprop="description"> "Al hacer <em>zoom</em>, las franjas se alejan y el efecto desaparece", añade Novick. Si te alejas, pasa justo lo contrario. La ilusión de Munker se basa en jugar con nuestra percepción del color. <a href="https://simple.wikipedia.org/wiki/White%27s_illusion" target="_blank">Es parecida a la ilusión de White</a>, en la que el efecto óptico se debe al brillo, no a los colores.</figcaption></figure><br /></div>
</div>
<div class="centro" id="sumario_8|foto">
<a href="https://www.blogger.com/null" name="sumario_8"></a><br />
<div class="media">
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><img alt="" height="405" src="https://ep01.epimg.net/verne/imagenes/2019/06/16/articulo/1560679610_830544_1560683046_sumario_normal.jpg" style="margin-left: auto; margin-right: auto;" title="" width="560" /></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Todos los rectángulos grises son del mismo color, aunque los de la izquierda <br />
parezcan más oscuros que los de la derecha. <span class="firma">Zhengyi4411 (Wikimedia Commos)</span></td></tr>
</tbody></table>
<figure class="foto" itemprop="image" itemscope="" itemtype="https://schema.org/ImageObject"> <figcaption class="pie" itemprop="description"> "La ilusión de White consigue el mismo efecto, pero con luces y sombras. Normalmente se dibuja con negro, blanco y gris. Creo que la ilusión de Munker es más interesante porque se puede expresar en una gran variedad de colores", dice Novick. Estos son otros ejemplos de la ilusión de Munker, <a href="http://www.engineering.utep.edu/novick/colors/" target="_blank">procedentes de la web de este profesor</a>.</figcaption></figure><br /></div>
</div>
<div class="centro" id="sumario_4|foto">
<a href="https://www.blogger.com/null" name="sumario_4"></a><br />
<div class="media">
<figure class="foto" itemprop="image" itemscope="" itemtype="https://schema.org/ImageObject"><img alt="" height="272" src="https://ep01.epimg.net/verne/imagenes/2019/06/16/articulo/1560679610_830544_1560682254_sumario_normal.jpg" title="" width="560" /> <figcaption class="pie" itemprop="description"> </figcaption><figcaption class="pie" itemprop="description">Las columnas más estrechas con el mismo color. <span class="firma">David Novick</span></figcaption></figure><br /></div>
</div>
<div class="centro" id="sumario_5|foto">
<a href="https://www.blogger.com/null" name="sumario_5"></a><br />
<div class="media">
<figure class="foto" itemprop="image" itemscope="" itemtype="https://schema.org/ImageObject"><img alt="" height="343" src="https://ep01.epimg.net/verne/imagenes/2019/06/16/articulo/1560679610_830544_1560682341_sumario_normal.jpg" title="" width="560" /> <figcaption class="pie" itemprop="description"> </figcaption><figcaption class="pie" itemprop="description">La foto del gato es la misma en la izquierda y en la derecha</figcaption></figure><br /></div>
</div>
<div class="centro" id="sumario_6|foto">
<a href="https://www.blogger.com/null" name="sumario_6"></a><br />
<div class="media">
<figure class="foto" itemprop="image" itemscope="" itemtype="https://schema.org/ImageObject"><img alt="" height="368" src="https://ep01.epimg.net/verne/imagenes/2019/06/16/articulo/1560679610_830544_1560682417_sumario_normal.gif" title="" width="560" /> <figcaption class="pie" itemprop="description"> Este gif ilustra cómo el color de los dos círculos es el mismo</figcaption></figure><br /></div>
</div>
<a href="https://twitter.com/NovickProf/status/1019592963259691008" target="_blank">En julio de 2018</a>, una versión muy parecida de las esferas de Novick también captó bastante atención en internet. "<span lang="es" xml:lang="es">No todas mis ilusiones se comparten tanto. Algunas se hacen virales, pero es difícil predecir cuáles. Quiero decir que todas mis ilusiones están inspiradas en el trabajo <a href="https://twitter.com/akiyoshikitaoka?lang=es" target="_blank">del profesor Akiyoshi Kitaoka</a> de la Universidad Ritsumeikan en Kyoto, Japón", añade Novick. En <em>Verne</em> hemos hablado en bastantes ocasiones del trabajo de Kitaoka, como cuando viralizó <a href="https://verne.elpais.com/verne/2017/02/27/articulo/1488201716_130471.html" target="_blank">su ilusión óptica de las fresas azules que parecen rojas</a>.</span><br />
<span lang="es" xml:lang="es"></span><br />
<div class="centro" id="sumario_7|html">
<a href="https://www.blogger.com/null" name="sumario_7"></a><iframe allow="encrypted-media" allowtransparency="true" frameborder="0" height="615" scrolling="no" src="https://www.facebook.com/plugins/post.php?href=https%3A%2F%2Fwww.facebook.com%2Fakiyoshi.kitaoka%2Fposts%2F10209232017652265&width=500" style="border: currentColor; overflow: hidden;" width="100%"></iframe><br /></div>
<div class="nota_pie">
</div>
</div>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-72351623803179846672016-09-13T08:32:00.001-07:002016-09-13T08:34:00.431-07:00Encuentran las zonas del cerebro que crean las imágenes panorámicas <div dir="ltr" style="text-align: left;" trbidi="on">
<span style="font-size: large;">Neurocientíficas de MIT aíslan las dos regiones que construyen los recuerdos 'en 360º'</span><br />
<div class="chapeau">
<h3 class="access">
</h3>
<h3 class="access">
Neurocientíficas de MIT (EE.UU.) han descubierto que hay dos
regiones del cerebro involucradas en la construcción de recuerdos
panorámicos. Tenían tres áreas 'sospechosas', que intervienen en
procesar objetos vistos, pero solo dos de ellas crean imágenes 'de
360º'. </h3>
<h3 class="access">
</h3>
<h3 class="access">
<img alt="Tendencias 21. Ciencia, tecnología, sociedad y cultura" class="image" src="http://www.tendencias21.net/photo/titre_8525757.jpg?v=1423735748" height="60" title="Tendencias 21. Ciencia, tecnología, sociedad y cultura" width="400" /></h3>
</div>
<a href="http://www.tendencias21.net/Encuentran-las-zonas-del-cerebro-que-crean-las-imagenes-panoramicas_a43158.html">enlace</a><br />
<div class="entry-content instapaper_body">
<div class="para_16625733 resize" id="para_1">
<div class="texte">
<div class="access firstletter">
</div>
<div class="access firstletter">
<br />
Si se le pide a alguien que visualice su casa de la infancia, es
probable que pueda representar no sólo en la casa que vivía, sino
también los edificios de al lado y del otro lado de la calle.
Neurocientíficas del MIT (Massachusetts Institute of Technology, Boston,
EE.UU.) han identificado dos regiones del cerebro que están implicadas
en la creación de estas memorias panorámicas. <br />
<br />
Estas
regiones del cerebro nos ayudan a fusionar vistas fugaces de nuestro
entorno en un panorama sin fisuras, de 360 grados, dicen los
investigadores. <br />
<br />
"Nuestra comprensión del entorno está en
gran parte formada por nuestro recuerdo de lo que está fuera de la
vista", dice Caroline Robertson, post-doctoranda del Instituto McGovern
del MIT para la Investigación del Cerebro, en <a class="liens" href="http://news.mit.edu/2016/brain-builds-panoramic-memory-0908" rel="nofollow" target="_blank" title="http://news.mit.edu/2016/brain-builds-panoramic-memory-0908">MIT News</a>.
"Lo que buscábamos eran centros de conexiones del cerebro en los que
los recuerdos del entorno se integran con nuestro campo de visión
actual." <br />
<br />
Robertson es el autor principal del estudio, que aparece en la revista <i>Current Biology</i>.
Nancy Kanwisher, profesora de Ciencias Cognitivas y del Cerebro y
miembro del Instituto McGovern, es la autora principal del artículo. <br />
<br />
<b>Recuerdos</b> <br />
<br />
Cuando miramos una escena, la información visual fluye de nuestras
retinas hacia el cerebro, que tiene regiones que son responsables de
procesar diferentes elementos de lo que vemos, como las caras o los
objetos. <br />
<br />
El equipo del MIT sospechaba que las áreas
involucradas en las escenas de procesamiento -el área del lugar
occipital (OPA), el complejo retroesplenial (RSC) y el área del lugar
del parahipocampo (PPA)- también podrían estar implicadas en la
generación de memorias panorámicas de un lugar, como una esquina de la
calle . <br />
<br />
Si esto fuera cierto, cuando viéramos dos imágenes
de casas que sabemos que estaban en la misma calle, evocarían patrones
similares de actividad en estas regiones especializadas del cerebro. Dos
casas de diferentes calles no inducirían patrones similares. <br />
<br />
"Nuestra hipótesis es que a medida que empezamos a construir la
memoria del entorno que nos rodea, habría ciertas regiones del cerebro
donde la representación de una imagen individual empezaría a solaparse
con las representaciones de otras vistas de la misma escena", dice
Robertson.
</div>
</div>
</div>
</div>
<div class="entry-content instapaper_body">
<b>Realidad virtual</b> <br />
<div class="para_16625734 resize" id="para_2">
<div class="texte">
<div class="access firstletter">
<br />
Los investigadores exploraron
esta hipótesis utilizando auriculares inmersivos de realidad virtual,
lo que les permitió mostrar a la gente muchas escenas panorámicas
diferentes. En este estudio, los investigadores mostraron a los
participantes 40 imágenes de esquinas de las calles del barrio de Beacon
Hill, en Boston. <br />
<br />
Las imágenes se presentaron en dos
formas: La mitad del tiempo, los participantes vieron un tramo de 100
grados de una escena de 360 grados, pero la otra mitad de las veces,
vieron dos tramos discontinuos de una escena de 360 grados. <br />
<br />
Después de mostrar a los participantes estos entornos panorámicos, los
investigadores les mostraron 40 pares de imágenes y preguntaron si
procedían de la misma esquina de la calle. Los participantes eran mucho
más capaces de determinar si los pares venían de la misma esquina si
habían visto las dos escenas vinculadas en la imagen de 100 grados que
si las habían visto no enlazadas. <br />
<br />
Los escáneres cerebrales
revelaron que cuando los participantes veían dos imágenes que sabían que
estaban vinculadas, los patrones de respuesta en las regiones RSC y OPA
fueron similares. Sin embargo, este no fue el caso para los pares de
imágenes que los participantes no habían visto como vinculados. Esto
sugiere que RSC y OPA, pero no PPA, están involucrados en la
construcción de memorias panorámicas de nuestro entorno, dicen los
investigadores.
</div>
</div>
</div>
<br class="sep_para access" id="sep_para_3" />
<div class="para_16626359 resize" id="para_3" style="background-color: #e9e9e9; border: #CCCCCC 1px solid; max-width: 599px; padding: 6px;">
<div class="texte">
<div class="access firstletter">
<b>Representación bibliográfica:</b> <br />
<br />
Caroline E. Robertson, Katherine L. Hermann, Anna Mynick, Dwight J. Kravitz, Nancy Kanwisher: <a class="liens" href="http://www.cell.com/current-biology/pdf/S0960-9822%2816%2930753-9.pdf" rel="nofollow" target="_blank">Neural Representations Integrate the Current Field of View with the Remembered 360° Panorama in Scene-Selective Cortex</a>. <i>Current Biology</i> (2016). DOI: http://dx.doi.org/10.1016/j.cub.2016.07.002
</div>
</div>
</div>
</div>
</div>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-51431871440870642962015-11-20T02:07:00.000-08:002015-11-20T02:07:04.949-08:00La ilusión óptica que te hará ver en color esta foto en blanco y negro<div dir="ltr" style="text-align: left;" trbidi="on">
<h1 class="titulo" id="titulo_noticia" itemprop="name headline">
</h1>
<div id="subtitulo_noticia">
<h2 class="subtitulo" itemprop="alternativeHeadline">
El efecto se basa en la fatiga de la retina</h2>
</div>
<div class="contenido">
<header class="encabezado"></header><div class="embed embed_16_9">
</div>
<div class="barra_meta">
<a class="autor" href="http://verne.elpais.com/autor/verne/a/" itemprop="author" title="Ver todas las noticias de Verne"> Verne
</a>
<time class="actualizado" datetime="" itemprop="dateModified"> </time></div>
<div class="barra_meta">
<time class="actualizado" datetime="" itemprop="dateModified">20/11/2015<abbr title="Central European Time"></abbr></time></div>
<div class="barra_meta">
<time class="actualizado" datetime="" itemprop="dateModified"><abbr title="Central European Time"> </abbr></time>
</div>
<div class="cuerpo" id="cuerpo_noticia" itemprop="articleBody">
Sigue las instrucciones de este fragmento de <a href="http://www.bbc.co.uk/programmes/p02vmwbt">un documental de la BBC</a>
sobre cómo vemos el color. Verás una foto en blanco y negro del
castillo de Dunstanburgh, luego mira la imagen en color falso, fijando
la vista en el punto central durante unos 15 segundos. Esta imagen, se
explica, está "adaptando los receptores de luz de tus ojos a los
diferentes colores de la imagen". Cuando vuelva a aparecer la imagen
original, la verás en color durante unos segundos.<br />
<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<iframe width="320" height="266" class="YOUTUBE-iframe-video" data-thumbnail-src="https://i.ytimg.com/vi/3P8q_dCU3RI/0.jpg" src="https://www.youtube.com/embed/3P8q_dCU3RI?feature=player_embedded" frameborder="0" allowfullscreen></iframe></div>
<br />
<br />
Tal y como explican <a href="http://www.iflscience.com/brain/image-can-trick-your-brain-and-make-you-see-it-color">en IFL Science</a>,
tenemos tres tipos de conos en nuestros ojos, sensibles a las ondas de
luz asociadas a los colores verde, rojo y azul. Cuando nos exponemos a
una gran cantidad de luz de un determinado color, estos conos se fatigan
y dejan de responder temporalmente. Cuando volvemos a ver la imagen en
blanco y negro, solo actúan los conos que no están fatigados, por lo que
vemos los colores complementarios a los "fatigados" durante unos
segundos.<br />
<br />
<br />
El efecto fatiga explica otras ilusiones muy conocidas, como esta que
se ha compartido cientos de veces en Twitter desde hace ya casi dos
años. Solo hay que mirar fijamente los puntos de la nariz durante unos
15 o 30 segundos y luego mirar al techo (o a cualquier superficie
blanca). Parpadear ayuda, pero no es indispensable.<br />
<br />
<div style="text-align: center;">
<img alt="Enlace permanente de imagen incrustada" height="400" src="https://pbs.twimg.com/media/Bf2URfcCUAAJFYo.jpg" width="335" /></div>
<br />
<div class="centro" id="sumario_1|html">
<a href="https://www.blogger.com/null" name="sumario_1"></a>
</div>
También lo apreciamos en esta otra ilusión. Solo hay que centrar la
vista en la cruz del centro. Al cabo de unos 20 segundos, nos dará la
impresión de que todos los colores cambian. En realidad, las cuatro
áreas son blancas.<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
</div>
<div class="separator" style="clear: both; text-align: center;">
</div>
<div class="separator" style="clear: both; text-align: center;">
</div>
<div class="separator" style="clear: both; text-align: center;">
</div>
<div class="separator" style="clear: both; text-align: center;">
</div>
<div class="separator" style="clear: both; text-align: center;">
</div>
<br />
<div class="separator" style="clear: both; text-align: center;">
<iframe width="320" height="266" class="YOUTUBE-iframe-video" data-thumbnail-src="https://i.ytimg.com/vi/Jpr1DvYVQVg/0.jpg" src="https://www.youtube.com/embed/Jpr1DvYVQVg?feature=player_embedded" frameborder="0" allowfullscreen></iframe></div>
<br />
</div>
</div>
</div>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-61056111927226608272015-09-22T01:09:00.001-07:002015-09-22T01:09:12.100-07:00Nuevo Libro<div dir="ltr" style="text-align: left;" trbidi="on">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhN0weuLK0S7w2fPZL0l6rfTrhurzMxeI0-XeflP4DE6MklGiCg1QmEOQgdNYXTUtHKukxp7o-d7klvHMVaKkjJVTLckBOUcsU3kA-J22wVt1KvsNgrdVIGiSa_H8f2AK0f2nw1NQ8yKig4/s1600/La_memoria_humana.jpg" imageanchor="1" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;"><img border="0" height="200" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhN0weuLK0S7w2fPZL0l6rfTrhurzMxeI0-XeflP4DE6MklGiCg1QmEOQgdNYXTUtHKukxp7o-d7klvHMVaKkjJVTLckBOUcsU3kA-J22wVt1KvsNgrdVIGiSa_H8f2AK0f2nw1NQ8yKig4/s200/La_memoria_humana.jpg" width="158" /></a><span style="font-size: large;">La memoria humana: Aportaciones desde la neurociencia cognitiva</span><br /><br /> Antonio L. Manzanero y Miguel Ángel Álvarez<br /> Madrid: Pirámide, 2015<br /> ISBN: 978-84-368-3440-6<br /><br /> Índice:<br /> Prólogo; 1. Introducción al estudio de la memoria; 2. Fundamentos psicobiológicos de la memoria; 3. Modelos cognitivos de memoria; 4. Sistemas de memoria, procesos de recuperación automática y conciencia; 5. El papel del contexto en la memoria; 6. Emoción y memoria; 7. Déficit y alteración de la memoria: olvido, falsas memorias y amnesias; 8. La memoria autobiográfica; 9. La memoria durante el ciclo vital; 10. Memoria de testigos; Bibliografía<br /><br /><br /><br /> Múltiples aproximaciones y modelos han tratado de explicar el funcionamiento de la memoria humana. En esta obra se habla tanto de lo cognitivo como de lo neurocientífico, y en cada capítulo los autores van contando diferentes aproximaciones a múltiples problemas relacionados con los procesos de memoria, aproximaciones tanto descriptivas como funcionales. Cuentan desde la topografía de las distintas áreas cerebrales o zonas que se estimulan al realizar tareas conductuales de memoria, hasta la explicación que tratan de darnos los investigadores que se han acercado a diseccionar estos problemas desde la psicología experimental o clínica. Es una obra excepcionalmente completa sobre la memoria. Su extensión permite abordar los distintos ámbitos desde los que considerar y estudiar la memoria, con una exposición atractiva, aunque no exenta de complejidad y conocimientos técnicos. </div>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-30327547059981845772015-09-21T01:04:00.000-07:002015-09-22T01:09:57.882-07:00Científicos crean una capa de invisibilidad a lo Harry Potter con 'ladrillos de oro'<div dir="ltr" style="text-align: left;" trbidi="on">
<h1 id="m63-62-64">
<span style="font-size: small;">21/09/2015</span></h1>
<a href="http://www.publico.es/internacional/cientificos-crean-capa-invisibilidad-harry.html">enlace</a><br />
<strong>Investigadores de varias instituciones estadounidenses han desarrollado una capa óptica ultrafina que funciona borrando la firma de un objeto a partir de la luz reflejada. El sistema ha logrado ocultar objetos de unos pocos micrómetros. Sin embargo, los científicos aseguran que este dispositivo podría ampliarse para esconder cosas más grandes.</strong><br />
<strong></strong><br />
<div class="kalooga_SVG kalooga_richbutton" style="display: none; left: 660px; top: 175px; z-index: 2;">
<div class="kalooga_text">
</div>
<div class="kalooga_post">
</div>
</div>
<div class="article-body">
<div class="relacionadas">
<div class="related-module box-wborder" id="m783-782-784">
<div class="box-title" id="m787-786-788">
<a class="page-item-link inline-text-module" href="http://www.publico.es/ciencias/cientificos-nueva-york-revelan-capa.html" id="m800-799-801">Científicos de Nueva York revelan la 'capa de invisibilidad'</a></div>
<div class="page-anchor" data-collection="m792-1-793" id="m807-1-808">
<a class="page-item-link inline-text-module" href="http://www.publico.es/ciencias/capa-invisibilidad-harry-potter-ya.html" id="m811-810-812">La capa de invisibilidad de Harry Potter ya es una realidad</a></div>
<div class="page-anchor" data-collection="m792-1-793" id="m818-2-819">
<a class="page-item-link inline-text-module" href="http://www.publico.es/ciencias/cientifico-estadounidense-invisible-hijo-capa.html" id="m822-821-823">Un científico estadounidense hace invisible a su hijo con una capa al estilo de Harry Potter</a></div>
<div>
</div>
<div>
</div>
</div>
</div>
<div class="article-info">
<div class="signature" id="m95-94-96">
AGENCIA SINC</div>
</div>
<div class="article-text">
</div>
<div class="article-text" id="m836-835-837">
La capas de invisibilidad son un elemento recurrente en la ciencia ficción y los relatos fantásticos, desde Star Trek a Harry Potter, pero no existen en la vida real ¿o sí? Científicos del departamento de Energía de EE UU, del Lawrence Berkeley National Laboratory y de la Universidad de Berkerley California han creado una capa ultrafina que puede adaptarse a la forma de un objeto y ocultarlo mediante luz reflejada. Los detalles del hallazgo han sido descritos en un estudio publicado en el último número de la revista Science.</div>
<div class="quote" id="m841-1-842">
</div>
<div class="article-text" style="text-align: left;">
</div>
<div class="article-text" style="text-align: left;">
<br />
<table cellpadding="0" cellspacing="0" class="tr-caption-container" style="float: left; margin-right: 1em; text-align: left;"><tbody>
<tr><td style="text-align: center;"><img alt="Capa de invisibilidad a lo Harry Potter" class="kalooga_15255" src="http://www.publico.es/files/article_main//files/crop/uploads/2015/09/21/55ffe18007c97.r_1442832988695.0-16-490-269.jpg" height="205" style="margin-left: auto; margin-right: auto;" width="400" /></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Ilustración 3D de una capa de invisibilidad hecha de un manto ultrafino de nanoantenas (bloques de oro) que cubre un objeto. La luz se refleja (flechas rojas) como en en un espejo plano. / Equipo de Xiang Zhang / Berkeley Lab/ UC Berkeley</td></tr>
</tbody></table>
</div>
<div class="article-text" style="text-align: left;">
</div>
<div class="quote">
Utilizando nanoantenas de oro como si fueran ladrillos, los investigadores han construido un manto de apenas 80 nanómetros de espesor con el que se envuelve un objeto tridimensional del tamaño de unas pocas células biológicas, modelado de forma irregular con múltiples golpes y abolladuras. La superficie de la capa ha sido diseñada para desviar las ondas de luz reflejadas de manera que el objeto se vuelve invisible para la detección óptica cuando se activa el dispositivo.<br />
<br />
"Esta es la primera vez que un objeto 3D con forma arbitraria ha sido ocultado de la luz visible", señala Xiang Zhang, director de la ciencias de materiales de Berkeley Lab y una autoridad mundial en metamateriales y nanoestructuras artificiales con propiedades electromagnéticas que no se encuentran en la naturaleza.<br />
<br />
"Nuestra capa ultradelgada parece un abrigo. Es fácil de diseñar y poner en práctica, y es potencialmente escalable para ocultar objetos macroscópicos", agrega el investigador y uno de los autores del trabajo.<br />
<br />
La dispersión de la luz (ya sea visible, infrarroja, rayos X, etc.), a partir de su interacción con la materia, es lo que nos permite detectar y observar los objetos. Las normas que rigen estas interacciones en materiales naturales pueden eludirse en los metamateriales, ya que sus propiedades ópticas se derivan de su estructura física, en vez de su composición química.</div>
<div class="ads-full-width">
<div id="m12-11-13">
<!-- Board NOTICIAS Publicidad In-Text --><br />
<strong>Desafiando los límites</strong></div>
</div>
<div class="article-text" id="m861-5-862">
Durante los últimos diez años, Zhang y su equipo han estado desafiando los límites de cómo interactúa la luz con los metamateriales, logrando curvar la trayectoria de la luz y también doblarla hacia atrás –fenómenos que no se ve en los materiales naturales– para hacer objetos ópticamente indetectables.<br />
<br />
En el pasado, sus capas ópticas basadas en metamateriales eran voluminosas y difíciles de escalar. En el trabajo actual, cuando la luz roja golpea el objeto 3D –que mide unas 1.300 micras cuadradas y está envuelto en la capa de invisibilidad de nanoantenas de oro–, la luz reflejada por la superficie de la capa es idéntica a la luz reflejada por un espejo plano. Por esta razón, el objeto resultaba invisible incluso en la fase de detección sensible, indican los autores.<br />
<br />
Además, el manto se puede encender o apagar, simplemente cambiando la polarización de las nanoantenas, agregan.<br />
<br />
Según los científicos, la capacidad de manipular las interacciones entre la luz y los metamateriales se podría aplicar en el futuro en tecnologías tales como microscopios ópticos de alta resolución y equipos ópticos ultrarrápidos. Las capas de invisibilidad a escala microscópica podrían resultar también útiles para ocultar el diseño detallado de los componentes microelectrónicos o con fines de cifrado de seguridad. En la macroescala, podrían ser usadas en pantallas 3D.</div>
</div>
</div>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-48209425366434896442015-08-18T01:50:00.002-07:002015-08-18T01:57:58.086-07:00¿Cómo sabe una máquina que sonríes? Reconocimiento facial para principiantes<div dir="ltr" style="text-align: left;" trbidi="on">
<div class="subtitle bkn mce sk2">
Los inimitables patrones de tu rostro podrán servir hasta para sacar dinero de un cajero automático. Los sistemas de reconocimiento facial están invadiendo eventos, tiendas e incluso iglesias mientras Facebook quiere identificarte incluso cuando no ve tu cara. Pero, ¿cómo sabe quién eres o cómo te sientes un ordenador?</div>
<div class="cp-tools md cf">
<div class="bkn dateline fl">
<small class="byline"><a class="lnk" href="http://www.eldiario.es/autores/cristina_sanchez/" title="Cristina Sánchez">Cristina Sánchez</a> </small> <span class="location"></span> </div>
<!-- .bkn.dateline -->
<br />
<div class="md-social md cl">
<div class="bkn dateline fl">
<span class="date">14/08/2015</span> </div>
<!-- .social-lst --> <img alt="eldiario.es" src="http://static2.eldiario.es/static/EDIDiario/images/logo3.png?hash=6509d2c4071d30e52950870a31c4645e" height="52" width="250" /></div>
<!-- .md-social.md.cl --><a href="http://www.eldiario.es/hojaderouter/tecnologia/software/reconocimiento-facial-funcionamiento-algoritmos_0_417508247.html">enlace</a><br />
</div>
<div class="inset cf">
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><img alt="Google y Facebook lideran los avances en reconocimiento facial " src="http://images.eldiario.es/hojaderouter/Cfakepath1jpg_EDIIMA20150807_0001_18.jpg" height="362" style="margin-left: auto; margin-right: auto;" width="643" /></td></tr>
<tr><td class="tr-caption" style="text-align: center;"><div class="caption-inside">
Google y Facebook lideran los avances en reconocimiento facial </div>
</td></tr>
</tbody></table>
<div class="media-holder">
</div>
</div>
<div class="pg-body">
<!-- .lst --> <!-- .bd --> <!-- .md --> <br />
<div class="mce-body mce no-sticky-adv-socios" id="edi-body">
<div class="mce">
Tu nariz aguileña o chata, tus ojos almendrados o saltones o la propia forma de tu rostro, ovalado o alargado, pueden decir mucho sobre ti a la cámara que en estos momentos tienes enfrente. <a class="mce" href="http://www.windowscentral.com/here-are-all-pcs-support-windows-hello-facial-recognition-windows-10"> Windows 10</a> se ha aprovechado de ello y permite iniciar sesión gracias a su <strong class="mce"> sistema de <a class="mce" href="http://www.windowscentral.com/here-are-all-pcs-support-windows-hello-facial-recognition-windows-10"> reconocimiento facial</a></strong> si nuestro ordenador incorpora <a class="mce" href="http://www.windowscentral.com/here-are-all-pcs-support-windows-hello-facial-recognition-windows-10"> una cámara Real Sense 3D.</a> No es la única compañía que cree que la biometría de nuestras jetas es el presente y el futuro: Apple ya ha <a class="mce" href="http://recode.net/2015/03/31/apple-to-use-selfies-to-unlock-phones/"> patentado</a> su sistema para que desbloqueemos nuestro teléfono a ritmo de 'selfie'.</div>
<div class="mce">
Mientras, en todo el mundo comenzamos a observar curiosas (e invasivas) aplicaciones de este reconocimiento: la <a class="mce" href="http://gizmodo.com/uk-police-scanned-the-faces-of-100-000-people-at-a-musi-1711767057"> policía de Reino Unido</a> escaneó los rostros de los asistentes a un festival de música para detectar bandas de crimen organizado sin el permiso de los asistentes, treinta iglesias de todo el mundo utilizan el <strong class="mce"> sistema <a class="mce" href="http://fusion.net/story/154199/facial-recognition-no-rules/"> Churchix</a> para identificar el espejo del alma de los feligreses</strong> y en China ya se ha presentado el <a class="mce" href="http://www.tecnoxplora.com/gadgets/cajero-automatico-que-queda-cara_2015061100118.html"> primer cajero automático</a> que solo nos entrega el dinero si le suena nuestra cara. ¿En qué se fija una máquina para desvelar tu identidad? </div>
<div class="no-adv-socios">
<div id="SC_InPage.Layer.0.38494727888994207.singleton" style="background-color: black; display: none; height: 1px; overflow: hidden; padding: 0px; text-align: left; width: 1px;">
</div>
</div>
<div class="inset cf width643">
<div class="media-holder">
<div class="mg ">
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><img alt="Página web de la empresa Face-Six que ofrece reconocimiento facial en eventos" src="http://images.eldiario.es/hojaderouter/Cfakepathirlandabandera2jpg_EDIIMA20150807_0007_18.jpg" height="290" style="margin-left: auto; margin-right: auto;" width="643" /></td></tr>
<tr><td class="tr-caption" style="text-align: center;"><div class="caption-inside">
Página web de la empresa Face-Six, que ofrece reconocimiento facial para eventos</div>
</td></tr>
</tbody></table>
</div>
<!-- .mg --> <br />
<div class="caption-inside">
ASÍ SABE UNA MÁQUINA QUIÉN ERES</div>
</div>
</div>
<div class="mce">
<br />
Cada 'software' de reconocimiento facial esconde sus propios secretos, si bien hay una serie de pasos que casi todos siguen, ya sea <a class="mce" href="http://www.ucci.urjc.es/se-implementa-en-el-aeropuerto-de-barajas-un-sistema-en-pruebas-de-reconocimiento-facial-en-3d-para-la-identificacion-de-sospechosos/"> para identificar sospechosos en los aeropuertos</a> o para que la empresa <a class="mce" href="http://fortune.com/2015/06/23/facial-recognition-freak-out/"> Face-Six</a> proporcione a los templos información sobre los buenos cristianos.</div>
<div class="mce">
En primer lugar, el sistema tiene obviamente que <strong class="mce"> detectar que somos un ser humano</strong>, rastreando los píxeles de la imagen. "Hay algoritmos que, a partir de un conjunto de imágenes que son caras y otro conjunto que no son caras, son capaces de aprender automáticamente a encontrar una cara en una imagen", nos cuenta Pedro Tomé, investigador del <a class="mce" href="http://atvs.ii.uam.es/about.jsp"> Grupo de Reconocimiento Biométrico</a> de la Universidad Autónoma de Madrid. <br />
</div>
<div class="inset cf width643">
<div class="media-holder">
<div class="mg ">
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><img alt="La detección de las caras es el primer paso" src="http://images.eldiario.es/hojaderouter/CfakepathFacedetectionjpg_EDIIMA20150807_0003_18.jpg" height="248" style="margin-left: auto; margin-right: auto;" width="400" /></td></tr>
<tr><td class="tr-caption" style="text-align: center;"><div class="caption-inside">
La detección de las caras es el primer paso</div>
</td></tr>
</tbody></table>
</div>
<!-- .mg --> <br />
<div class="caption-inside">
<!-- .caption-inside --> </div>
</div>
<!-- .media-holder --> Después, llega <strong class="mce"> la fase de <a class="mce" href="http://jrbp10.unizar.es/papers/S5.C3.pdf"> alineación</a></strong>: se <a class="mce" href="http://electronics.howstuffworks.com/gadgets/high-tech-gadgets/facial-recognition2.htm"> determina la posición</a> o el tamaño de la cabeza para poder normalizarla. Habitualmente, la cara se alinea detectando dos puntos característicos, como pueden ser la posición de los ojos, aunque los más sofisticados métodos estiman también la inclinación de la cabeza o la iluminación. Cuando los rostros están alineados, el sistema procede rápidamente a <strong class="mce"> extraer las características</strong> con las que puede reconocer quiénes somos. </div>
<div class="mce">
Según nos explica Enrique Cabello, investigador principal del <a class="mce" href="http://www.frav.es/index.php/personal-2/profesores/11-enrique-cabello"> Grupo de Reconocimiento Facial & Visión Artificial</a>, algunos 'software' se fijan en las <strong class="mce"> características globales de nuestra cara</strong>, como la forma (si es más o menos alargada o más o menos redonda) o la configuración general de nuestro rostro (si tenemos una frente muy hundida o unas cejas muy salientes). "Estos sistemas no se fijan en puntos concretos de la cara, sino que <strong class="mce"> toman la fotografía e intentan compararla con la anterior</strong>", nos cuenta este experto, que asemeja el sistema con una "lupa" buscando diferencias en nuestro rostro.</div>
<div class="mce">
Los primeros sistemas de reconocimiento facial comparaban las dos imágenes "en bruto", píxel a píxel, una labor demasiado costosa y poco efectiva, por lo que <strong class="mce"> actualmente nuestra cara se transforma en vectores</strong> para reducir la dimensionalidad y extraer la información discriminante de las caras. <br />
</div>
<div class="inset cf width643">
<div class="media-holder">
<div class="mg ">
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><img alt="El sistema de reconocimiento también puede trazar los puntos faciales de referencia" src="http://images.eldiario.es/hojaderouter/CfakepathFOTO2jpg_EDIIMA20150807_0006_18.jpg" height="243" style="margin-left: auto; margin-right: auto;" width="400" /></td></tr>
<tr><td class="tr-caption" style="text-align: center;"><div class="caption-inside">
El sistema de reconocimiento puede trazar los puntos faciales para estudiar las diferentes zonas de la cara</div>
</td></tr>
</tbody></table>
</div>
<!-- .mg --> <br />
<div class="caption-inside">
<!-- .caption-inside --> </div>
</div>
<!-- .media-holder --> Otro tipo de sistemas de reconocimiento analizan <strong class="mce"> características locales</strong>. "Lo normal es que detecte los ojos, la nariz y la boca, y a partir de ahí calculas el resto de puntos de la cara", explica Cabello. Detectar la T que forman nuestros ojos y nuestra nariz, una tarea relativamente fácil para un sistema, sirve tanto para alinear nuestra cara previamente como para analizar el resto de puntos interesantes y medir las distancias, consiguiendo extraer las <strong class="mce"> características geométricas de nuestros rostros.</strong></div>
<div class="mce">
"A un nivel más alto, los sistemas intentan sacar similitudes, como la distancia entre puntos característicos de la cara, <strong class="mce"> la medida de tu ojo o la distancia del ojo a la nariz</strong>", señala Tomé.</div>
<div class="mce">
Utilizar un modelo 3D de nuestra cara es otra de las alternativas, aunque hay dos opciones distintas: crear un <a class="mce" href="http://www.agenciasinc.es/Noticias/El-reconocimiento-facial-en-3D-da-nuevos-pasos"> modelo tridimensional</a> de la cabeza del sujeto utilizando varias cámaras o fotografiarle directamente con una cámara 3D. La <strong class="mce"> profundidad permite así mejorar la comparación posterior</strong> de las imágenes. <br />
</div>
<div class="mce">
<iframe allowfullscreen="true" frameborder="0" height="360" mozallowfullscreen="true" scrolling="no" src="http://widget.smartycenter.com/webservice/embed/9391/1344534/640/360/0/0/0/100/1" webkitallowfullscreen="true" width="640"></iframe><br /></div>
<div class="mce">
Tomé y Cabello coinciden en que los programas tradicionales combinan diferentes tipos de métodos para extraer tanto características globales como locales, y el color o la iluminación de la escena también se tienen en cuenta. No hay un número específico de datos que se deban extraer para conocer tu fisonomía, aunque Cabello puntualiza que con <strong class="mce"> unos cuantos miles, una máquina ya debería ser capaz de reconocernos.</strong></div>
<div class="mce">
Una vez extraídas las características o patrones de nuestra cara, <strong class="mce"> el sistema de clasificación</strong> (un algoritmo previamente entrenado) busca similitudes con las fotografías de su base de datos. "Cuanto más complicado es el escenario, <strong class="mce"> el rendimiento de los sistemas tiende a bajar"</strong>, explicaTomé.</div>
<div class="mce">
"Si me venden un reconocedor facial para hacer el control de los trabajadores de una empresa, éste funcionará siempre con el mismo fondo. En cambio, un sistema comercial en un escenario no controlado, como pueda ser una estación de tren, <strong class="mce"> debe ser mucho más sofisticado</strong>, puesto que tiene que hacer frente a un mayor número de casuísticas", detalla este investigador.<br />
</div>
<div class="inset cf width643">
<div class="media-holder">
<div class="mg ">
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><img alt="Cuando el sistema ha estudiado los patrones, compara la cara con su base de datos" src="http://images.eldiario.es/hojaderouter/Cfakepath15632628574a6461f14e3z_EDIIMA20150807_0002_18.jpg" height="484" style="margin-left: auto; margin-right: auto;" width="643" /></td></tr>
<tr><td class="tr-caption" style="text-align: center;"><div class="caption-inside">
Cuando el sistema ha estudiado los patrones, compara la cara con su base de datos</div>
</td></tr>
</tbody></table>
</div>
<!-- .mg --> <br />
<div class="caption-inside">
<!-- .caption-inside --> </div>
</div>
<!-- .media-holder --> </div>
<div class="ladillo">
¿CÓMO SABE UNA MÁQUINA QUE ESTAMOS SONRIENDO?<br />
</div>
<div class="mce">
Además de con fines biométricos, los sistemas de reconocimiento facial también se usan para que una <strong class="mce"><a class="mce" href="http://www.xataka.com/fotografia-y-video/facetime-tecnologia-para-camaras-de-fotos-similar-a-la-deteccion-de-sonrisa"> cámara de fotos</a> capte una instantánea</strong> cuando percibe que estoy esbozando una sonrisa. Crear un sistema de este tipo es bastante sencillo: tendríamos que fotografiar a 100 o 200 personas en condiciones controladas, pidiéndolas primero que sonrían y después indicándolas que pongan una expresión diferente.<br />
</div>
<div class="mce">
<iframe allowfullscreen="true" frameborder="0" height="360" mozallowfullscreen="true" scrolling="no" src="http://widget.smartycenter.com/webservice/embed/9391/1344543/640/360/0/0/0/100/1" webkitallowfullscreen="true" width="640"></iframe><br /></div>
<div class="mce">
El 'software' solo tendría que buscar la cara, localizarla y analizar las características relevantes (en este caso, los <strong class="mce"> puntos que marcan la comisura de los labios</strong>, aunque también podrían analizarse los cambios de posición de las cejas o la <a class="mce" href="https://www.youtube.com/watch?v=vsruvXDRtdo%20ver%20este%20vídeo"> aparición de arrugas</a>), para asegurarse de que estamos sonriendo. "Puedo discernir que si la boca tiene una determinada dimensión horizontal y vertical esa persona no está sonriendo o si hay una zona blanca entre los labios", indica Tomé.</div>
<div class="mce">
El reconocimiento facial de emociones permite detectar <strong class="mce"> expresiones como alegría, asco, sorpresa, ira o aburrimiento</strong>. <a class="mce" href="http://www.wsj.com/articles/startups-see-your-face-unmask-your-emotions-1422472398"> La compañía Emotient</a> ha entrenado un algoritmo para identificar diferentes expresiones faciales mediante la extracción de 90.000 puntos de interés de cada 'frame' en un vídeo, con el fin de que los comerciantes conozcan cómo se sienten los clientes que recorren sus establecimientos.<br />
</div>
<div class="mce">
<iframe allowfullscreen="true" frameborder="0" height="360" mozallowfullscreen="true" scrolling="no" src="http://widget.smartycenter.com/webservice/embed/9391/1344548/640/360/0/0/0/100/1" webkitallowfullscreen="true" width="640"></iframe><br /></div>
<div class="ladillo">
ENORMES BASES DE DATOS Y REDES NEURONALES, LA FÓRMULA DE GOOGLE Y FACEBOOK<br />
</div>
<div class="mce">
La mayoría de sistemas comerciales actuales utilizan todavía métodos tradicionales para reconocernos, aunque poco a poco van sustituyendo sus clasificadores por <strong class="mce"><a class="mce" href="http://www.eldiario.es/hojaderouter/tecnologia/software/moda-deep_learning-algoritmo-inteligencia_artificial_0_275772610.html"> redes neuronales profundas</a></strong>, algoritmos que simulan el proceso que lleva a cabo <strong class="mce"> nuestro cerebro</strong>: <strong class="mce"> el propio sistema aprende</strong> cuáles son las características que necesita para reconocer a un sujeto y las extrae por sí mismo.</div>
<div class="mce">
Tres investigadores de Google dieron a conocer recientemente <a class="mce" href="http://arxiv.org/pdf/1503.03832.pdf"><strong class="mce"> FaceNet</strong></a>, un sistema que han creado entrenando <a class="mce" href="http://arxiv.org/pdf/1503.03832.pdf"> redes neuronales</a> con una base de datos de <strong class="mce"> 260 millones de imágenes</strong>. Han conseguido una precisión del 99,63% identificando los rostros de 'Labeled Faces in the Wild', una base de datos que recoge 13.000 imágenes y se emplea para comprobar la eficacia de los sistemas de reconocimiento facial.</div>
<div class="mce">
Google planta así cara (en un sentido muy literal) a <strong class="mce"> Facebook</strong>, que el año pasado presentó <a class="mce" href="http://www.eldiario.es/hojaderouter/noticias/Deepface-reconocimiento_facial-Facebook-internet-algoritmo_0_275772874.html"><strong class="mce"> DeepFace</strong></a>, capaz de reconocer las imágenes de esa misma base de datos con <strong class="mce"> un <a class="mce" href="http://www.cs.toronto.edu/~ranzato/publications/taigman_cvpr14.pdf"> 97,35% de precisión</a></strong>, mejorando en un 27% el estado del arte según la compañía. Pero, ¿cómo logró Facebook crear un sistema que distingue las <strong class="mce"> caras <a class="mce" href="http://www.technologyreview.com/news/525586/facebook-creates-software-that-matches-faces-almost-as-well-as-you-do/"> casi tan bien como tú</a></strong>?<br />
</div>
<div class="inset cf width643">
<div class="media-holder">
<div class="mg ">
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><img alt="DeepFace, el sistema de Facebook que identifica rostros casi tan bien como las personas" src="http://images.eldiario.es/hojaderouter/CfakepathFOTO4jpg_EDIIMA20150807_0012_18.jpg" height="366" style="margin-left: auto; margin-right: auto;" width="643" /></td></tr>
<tr><td class="tr-caption" style="text-align: center;"><div class="caption-inside">
DeepFace, el sistema de Facebook que identifica rostros casi tan bien como las personas</div>
</td></tr>
</tbody></table>
</div>
<!-- .mg --> <br />
<div class="caption-inside">
<!-- .caption-inside --> </div>
</div>
<!-- .media-holder --> </div>
<div class="mce">
DeepFace utiliza un modelo en 3D del sujeto para rotar su rostro y que la red neuronal comience a hacer su trabajo, pero el verdadero potencial de su sistema es que entrenaron la red<strong class="mce"> con <a class="mce" href="http://www.technologyreview.com/news/525586/facebook-creates-software-that-matches-faces-almost-as-well-as-you-do/"> cuatro millones de fotografías</a></strong> de casi 4.000 personas. "Uno de los secretos de las redes neuronales es siempre la cantidad de datos de entrenamiento y cómo ajustas la infinidad de parámetros", nos cuenta Tomé.</div>
<div class="mce">
Una compañía con una pequeña base de datos podría tratar de replicar esa red neuronal, pero no va a poder obtener la precisión de DeepFace <strong class="mce"> porque no tiene disponibles tantas imágenes</strong> ni el detalle de los parámetros de configuración que ha utilizado, por lo que este investigador <strong class="mce"> califica de "irreproductible</strong>" <strong class="mce"> el sistema de Facebook.</strong></div>
<div class="mce">
La compañía de Mark Zuckerberg ha ido incluso más allá: su laboratorio de inteligencia artificial ha presentado un <a class="mce" href="https://www.newscientist.com/article/dn27761-facebook-can-recognise-you-in-photos-even-if-youre-not-looking/"> algoritmo experimental </a><strong class="mce"> capaz de reconocernos incluso cuando nuestras caras no están visibles en la imagen.</strong> Por el momento, han conseguido un 83% de precisión con su sistema utilizando 40.000 fotos públicas de Flickr.</div>
<div class="mce">
¿Cómo es posible reconocer sujetos de espaldas? "Además de entrenar la red con imágenes de la cara, han relacionado <strong class="mce"> metiendo información complementaria que en principio no es unívoca de la persona</strong>", explica Tomé. "Han hecho una prueba reducida. Me gustaría ver un caso real con un montón de imágenes más cómo funciona", puntualiza por su parte Cabello. <br />
</div>
<div class="ladillo">
EL FUTURO DEL RECONOCIMIENTO FACIAL, A OSCURAS<br />
</div>
<div class="mce">
La <strong class="mce"> baja iluminación de las imágenes</strong> continúa siendo por el momento uno de los <strong class="mce"> problemas</strong> a los que se enfrentan los sistemas de reconocimiento facial tradicionales. Investigadores del Instituto Tecnológico de Karlsruhe acaban de <strong class="mce"> presentar un <a class="mce" href="http://arxiv.org/abs/1507.02879"> 'software'</a> que funciona incluso en la oscuridad:</strong> una red neuronal profunda compara <strong class="mce"> imágenes infrarrojas</strong> con imágenes de luz visible.</div>
<div class="mce">
Han conseguido un 80% de fiabilidad si disponen de varias fotografías previas del sujeto, y un 55% si solo tienen una imagen con la que comparar en su base de datos. Una tecnología que podría aplicarse en un futuro a las <strong class="mce"> cámaras de videovigilancia.</strong><br />
<strong></strong> </div>
<div class="inset cf width643">
<div class="media-holder">
<div class="mg ">
<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><img alt="Las imágenes infrarrojas podrían ser la solución para el reconocimiento a oscuras" src="http://images.eldiario.es/hojaderouter/CfakepathFOTO5jpg_EDIIMA20150807_0004_18.jpg" height="265" style="margin-left: auto; margin-right: auto;" width="400" /></td></tr>
<tr><td class="tr-caption" style="text-align: center;"><div class="caption-inside">
Las imágenes infrarrojas podrían ser la solución para el reconocimiento a oscuras</div>
</td></tr>
</tbody></table>
</div>
<!-- .mg --> <br />
<div class="caption-inside">
<!-- .caption-inside --> </div>
</div>
<!-- .media-holder --> Hay otros casos en los que el reconocimiento facial puede fallar. Por mucho que Microsoft asegure que puede encontrar a <a class="mce" href="https://www.twinsornot.net/"> nuestro gemelo</a> famoso en la red con su página <a class="mce" href="https://www.twinsornot.net/"> 'Twins or Not'</a> - para revelar que Asthon Kutcher fue un buen doble en la ficción de Steve Jobs (se parecían con una probabilidad de un 67%) -, el reconocimiento facial en el caso de <strong class="mce"> gemelos idénticos</strong> continúa siendo un <a class="mce" href="http://www3.nd.edu/~kwb/PhillipsEtAlFG_2011.pdf"> reto para los investigadores</a>.</div>
<div class="mce">
"Si podemos hacer que el reconocimiento facial funcione bien para los gemelos idénticos, debería funcionar bien para la población en general", ha explicado <a class="mce" href="http://www.theatlantic.com/health/archive/2014/08/twins-a-gold-mine-for-research/378697/"><strong class="mce"> Jeremy Dawson</strong></a>, investigador en biometría de la Universidad de Virginia Occidental, que ha utilizado fotografías convencionales, infrarrojas y también en 3D para tratar de mejorar el 'software' de reconocimiento facial.</div>
<div class="mce">
"El mejor <strong class="mce"> sistema de reconocimiento de caras es el cerebro</strong>", defiende por su parte Cabello. Este investigador cree que nuestra cara no será por el momento la única clave para que un cajero automático nos devuelva nuestros billetes: podrían intentar suplantarnos con una careta exacta de nuestro rostro o bien atacar el propio sistema.<br />
</div>
<div class="mce">
<div class="inset cf width643">
<div class="media-holder">
<div class="mg ">
<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><img alt="C:\fakepath\FOTO3.jpg" src="http://images.eldiario.es/hojaderouter/CfakepathFOTO3jpg_EDIIMA20150807_0013_18.jpg" height="196" style="margin-left: auto; margin-right: auto;" width="400" /></td></tr>
<tr><td class="tr-caption" style="text-align: center;"><div class="caption-inside">
¿Invadirán las calles los sistemas de reconocimiento facial?</div>
</td></tr>
</tbody></table>
</div>
<!-- .mg --> <br />
<div class="caption-inside">
<!-- .caption-inside --> </div>
</div>
</div>
<div class="mce">
"Imagínate que intercepto tu cara, 'hackeo' el sistema y accedo <strong class="mce"> a la base de datos con todas las caras</strong> y puedo hacerme pasar por ti y sacar el dinero de tu cuenta con todos esos números de tu cara", señala este experto en visión artificial. Como la Sala de los Rostros sigue siendo <a class="mce" href="http://gameofthrones.wikia.com/wiki/Hall_of_Faces"> un lugar del universo ficticio de 'Juego de Tronos'</a>, cambiar una contraseña es aún bastante más fácil que sustituir nuestro semblante.</div>
<div class="mce">
Precisamente por eso, el reconocimiento facial se utilizará <strong class="mce"> de forma conjunta con otras técnicas biométricas</strong> como la <a class="mce" href="http://www.eldiario.es/hojaderouter/seguridad/biometria-voz-identificacion-seguridad-software_0_399310149.html"> biometría de voz</a>. "Creo que estará incluido, pero entrará en el mercado poco a poco, <strong class="mce"> como otro complemento más</strong>", señala Tomé.</div>
<div class="mce">
Eso sí, aunque nuestra cara combinada con nuestra huella dactilar o con nuestros patrones vocales vaya a sustituir progresivamente a nuestras inseguras contraseñas, la <strong class="mce"> preocupación por la privacidad de los datos</strong> sobre nuestra fisonomía será uno de los <a class="mce" href="http://www.bbc.com/news/technology-33199275"> grandes dilemas</a> de los próximos años. Al fin y al cabo, ¿de qué me sirve a mí que Facebook sea capaz de reconocerme incluso si trato de esconder mi rostro?</div>
</div>
</div>
</div>
</div>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-40919232908697087772015-07-03T01:45:00.000-07:002015-08-18T01:46:37.779-07:00Una mujer y dos caras<div dir="ltr" style="text-align: left;" trbidi="on">
<div class="separator" style="clear: both; text-align: left;">
EL HUFFINGTON POST </div>
<div style="text-align: left;">
<br /></div>
<div style="text-align: left;">
03/07/2015 </div>
<div style="text-align: left;">
<a href="http://www.huffingtonpost.es/2015/07/03/ilusion-optica-cara-mujer_n_7719626.html?utm_hp_ref=spain">enlace</a></div>
<div style="text-align: left;">
<br /></div>
<div style="text-align: left;">
Cuando ya parecía acallada <a href="http://www.huffingtonpost.es/2015/02/27/vestido-blanco-azul_n_6766790.html" target="_hplink">la polémica sobre si el famoso vestido era blanco y dorado o azul y negro</a>, una nueva ilusión óptica para volver a dejarnos con la boca abierta. </div>
<div style="text-align: left;">
En esta ocasión se trata de una imagen dividida en dos mitades. En la parte izquierda hay una imagen de una mujer, como si fuera el negativo de un carrete fotográfico. La parte izquierda no es más que un espacio en blanco. Las instrucciones para poder apreciar la ilusión son las siguientes:</div>
<ol><div style="text-align: left;">
</div>
<li><div style="text-align: left;">
Mira fijamente al punto blanco sobre la nariz de la mujer durante por lo menos 15 segundos. </div>
</li>
<div style="text-align: left;">
</div>
<li><div style="text-align: left;">
A continuación, posar la mirada sobre el área blanca de la derecha. </div>
</li>
<div style="text-align: left;">
<br />
</div>
<li class="last"><div style="text-align: left;">
Y... ¡sorpresa! ¿Qué ves?</div>
</li>
<div style="text-align: left;">
</div>
</ol>
<div class="separator" style="clear: both; text-align: left;">
<a href="http://i.huffpost.com/gen/3147612/thumbs/o-ILUSIN-PTICA-900.jpg?7" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img alt="ilusión óptica" border="0" src="http://i.huffpost.com/gen/3147612/thumbs/o-ILUSIN-PTICA-900.jpg?7" height="356" width="640" /></a></div>
<div style="text-align: left;">
<br /></div>
<div style="text-align: left;">
El rostro de una mujer de pelo castaño debería aparecer durante unos segundos sobre esa superficie blanca. No se debe a ningún truco de la fotografía ni a ningún efecto sobrenatural; se trata de <a href="http://perplexos.pandemicquiz.com/es/02-01-15/alucinante-ilusion-optica-que-te-hara-creer-que-tienes-superpoderes-y-su-explicacion#.VZZHUu3tlHw" target="_hplink">una ilusión óptica conocida como <em>imagen residual negativa</em></a>. </div>
<div style="text-align: left;">
Sus causantes son unas células del ojo, las ganglionares, que son las encargadas de enviar información al cerebro codificando los colores en pares de colores primarios. "El código de todos los tonos que podemos percibir en el espectro de luz lo transmiten desde la parte posterior del ojo hasta el cerebro a través de tres canales neuronales", <a href="http://www.dailymail.co.uk/news/article-3145423/The-bizarre-optical-illusion-paints-stunning-brunette-woman-blank-canvas-simply-staring-s-nose-not-it.html" target="_hplink">explicó el Doctor Juno Kim a <em>Daily Mail Australia</em></a>.</div>
<div style="text-align: left;">
Un primer canal codifica los colores negro y blanco; el segundo, del rojo y el verde y el tercero, del azul y el amarillo. "Cuando miras algo amarillo, por ejemplo, durante un tiempo prolongado, se estimulan las células que son sensibles a ese color en el canal del amarillo y el azul", apuntó.</div>
<div style="text-align: left;">
La actividad de esas células se incremente, pero después de un tiempo, se fatigan. "Cuando después de eso diriges tu mirada a un fondo uniforme, por ejemplo una pared gris, lo que ocurre es que la célula no vuelve a su estado de descanso, sino que su actividad decae mucho más. Es ese debilitamiento para codificar el amarillo lo que hace que la codificación del color opuesto se haga más fuerte, por lo que se verá azul", añadió Kim.</div>
<div style="text-align: left;">
Lo que ocurre en esta imagen es que las células que identifican el azul, tras estar expuestas durante un tiempo a ese color, se fatigan y debilitan, estimulando la percepción de su contrario, el amarillo, por lo que se aprecia un tono de piel más natural. </div>
</div>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-27606795554920424972015-05-11T03:48:00.001-07:002015-05-11T03:49:09.889-07:00Esta ilusión óptica puede cambiar tu percepción de los colores durante meses<div dir="ltr" style="text-align: left;" trbidi="on">
<h1 class="titulo" id="titulo_noticia" itemprop="name headline">
</h1>
<div id="subtitulo_noticia">
<h2 class="subtitulo" itemprop="alternativeHeadline">
Este efecto óptico parte de un estudio de las gafas tintadas con varios colores, como las de las lentes 3D</h2>
</div>
<div class="contenido">
<br />
<figure class="foto centro" itemprop="image" itemscope="" itemtype="http://schema.org/Photograph">
</figure>
<br />
<div class="barra_meta">
Verne</div>
<div class="barra_meta">
<time class="actualizado" datetime="" itemprop="dateModified">10/05/2015</time></div>
<div class="barra_meta">
<img src="http://api.ning.com/files/K1qoAY8GpaRdzlaT59zP9hB4NfNHaEcg4exu*CHlvcu7Emh8Z4aEQXmSa7Q-7HddCZrd9GtKEp3aLSj-QPKOQSGL*EbGWeDm/578pxel_pais_logo_2007_svg.png" height="43" id="il_fi" style="padding-bottom: 8px; padding-right: 8px; padding-top: 8px;" width="200" /></div>
<div class="barra_meta">
<a href="http://verne.elpais.com/verne/2015/05/08/articulo/1431096664_467033.html"><time class="actualizado" datetime="" itemprop="dateModified"><abbr title="Central European Summer Time">enlace</abbr></time></a></div>
<div class="barra_meta">
<time class="actualizado" datetime="" itemprop="dateModified"><abbr title="Central European Summer Time"><br /></abbr></time></div>
<div class="barra_meta">
</div>
<div class="cuerpo" id="cuerpo_noticia" itemprop="articleBody">
Después de <a href="http://verne.elpais.com/verne/2015/02/27/articulo/1425042800_400163.html">comprender</a> que los tonos del <a href="http://verne.elpais.com/verne/2015/02/27/articulo/1425025733_797891.html">famoso vestido</a>
dependían de cómo varía la percepción del color según el contexto,
resurge en la red una nueva ilusión óptica que nos ayuda a seguir
descubriendo cómo funciona nuestra cabeza.<br />
El <a href="http://en.wikipedia.org/wiki/McCollough_effect">efecto McCollough</a> ha revivido gracias a un artículo del diario <a href="http://www.dailymail.co.uk/sciencetech/article-3073381/The-picture-BREAKS-BRAIN-Bizarre-trick-transforms-black-white-lines-red-green-effect-THREE-MONTHS.html#ixzz3ZYYSM7lf"><i>Daily Mail</i></a> que ha saltado a la comunidad online <a href="http://www.reddit.com/r/explainlikeimfive/comments/356q4p/eli5_the_mccollough_effect/">Reddit</a>
a través de Facebook. Este experimento no solo juega con la
interpretación de los colores, sino que además incluye una amenaza,
factor que lo hace doblemente atractivo para los usuarios de las redes
sociales: tu percepción del color puede verse afectada (temporalmente).<br />
En 1965, la psicóloga estadounidense <a href="http://en.wikipedia.org/wiki/Celeste_McCollough">Celeste McCollough</a>
aprovechó su año sabático en Canadá para estudiar los efectos que
producían las gafas tintadas con varios colores, como las de las lentes
3D. A partir de esta investigación descubrió un fenómeno de percepción
visual: al mirar durante un tiempo imágenes de rayas en blanco y negro,
después concentrarse en otras de color verde y rojo y luego volver a
mirar las primeras, el ser humano tenía la sensación de verlas verdosas y
en tonos rosas. Se denomina post-efecto de color contingente a la
orientación. Es decir, tras inducir a una persona a mirar durante un
determinado período un dibujo se consigue un efecto concreto que puede
durar horas, incluso meses.<br />
Antes de probar el experimento, hay que tener en cuenta las posibles
consecuencias. Tras publicarse el estudio de McCollough muchos
psicólogos se interesaron por las secuelas en la percepción de los
colores. No existe una única conclusión para explicar por qué los
efectos duran tanto. En primer lugar concluyeron que no se trata de un
efecto en la retina, sino en el cerebro encargado de compensar las zonas
sin color rellenándolas. La propia psicóloga propuso que estos efectos
eran el resultado de la adaptación de las neuronas en la corteza visual,
las encargadas de codificar la orientación, la zona que reconoce un
objeto (en este caso las líneas de los dibujos).<br />
Luego llegó <a href="http://www.ncbi.nlm.nih.gov/pubmed/1185119">la investigación</a>
de los psicólogos Jones y Holding, que descubrieron que esta percepción
alterada podía llegar a durar meses. Y con esta conclusión los medios
de comunicación usaron este reclamo: "Esta imagen te romperá el
cerebro". Suficiente para provocar curiosidad pese a los efectos
colaterales.<br />
Ahora tienes dos opciones: someterte a la prueba o quedarte con las ganas.<br />
<br />
<b>1. Mira durante por lo menos un minuto esta imagen.</b><br />
<div class="centro" id="sumario_1|foto">
<a href="https://www.blogger.com/null" name="sumario_1"></a>
<div class="media">
<br />
<figure class="foto" itemprop="image" itemscope="" itemtype="http://schema.org/Photograph">
<img alt="" src="http://ep01.epimg.net/verne/imagenes/2015/05/08/articulo/1431096664_467033_1431101607_sumario_normal.jpg" height="486" title="" width="560" />
</figure>
</div>
</div>
<b>2. Repite la misma acción con esta de color verde y rojo.
Primero mira un cuadrado y luego el otro durante algo más de un minuto
cada una.</b><br />
<div class="centro" id="sumario_2|foto">
<a href="https://www.blogger.com/null" name="sumario_2"></a>
<div class="media">
<br />
<figure class="foto" itemprop="image" itemscope="" itemtype="http://schema.org/Photograph">
<img alt="" src="http://ep01.epimg.net/verne/imagenes/2015/05/08/articulo/1431096664_467033_1431101171_sumario_normal.jpg" height="280" title="" width="560" />
</figure>
</div>
</div>
<b>3. Vuelve a mirar la imagen en blanco y negro. Si has seguido
bien los pasos en vez de blanco y negro deberías ver tonalidades verdes
y rosas. Y si de verdad has cumplido con las instrucciones, esta
sensación debería durar más de un minuto.</b><br />
<br />
<b>4. No te preocupes, el efecto no te va a durar meses. Según
algunas teorías, si ahora vuelves a mirar a esta imagen con los mismos
colores, pero con el sentido de las líneas cambiado, el efecto se habrá
corregido.</b><br />
<div class="centro" id="sumario_3|foto">
<a href="https://www.blogger.com/null" name="sumario_3"></a>
<div class="media">
<br />
<figure class="foto" itemprop="image" itemscope="" itemtype="http://schema.org/Photograph">
<img alt="" src="http://ep01.epimg.net/verne/imagenes/2015/05/08/articulo/1431096664_467033_1431101210_sumario_normal.jpg" height="313" title="" width="640" />
</figure>
</div>
</div>
Si aún tienes dudas de lo que acaba de suceder, este joven divulgador
científico llamado lo explica (en inglés) en un vídeo en YouTube que
acumula desde enero más de 2.500.000 de reproducciones. Tom Scott lo
compara con esa desagradable sensación que produce una canción pegadiza,
por eso viaja hasta Disney World y aprovecha el tema <i>Un mundo pequeño</i>.<br />
<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<iframe allowfullscreen="" class="YOUTUBE-iframe-video" data-thumbnail-src="https://i.ytimg.com/vi/Wm8ZoVQ_OJo/0.jpg" frameborder="0" height="266" src="https://www.youtube.com/embed/Wm8ZoVQ_OJo?feature=player_embedded" width="320"></iframe></div>
</div>
</div>
</div>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-91574805364174992032015-03-02T04:31:00.003-08:002015-03-02T04:35:15.214-08:00¿De qué color es el vestido?<div dir="ltr" style="text-align: left;" trbidi="on">
<div class="cuerpo" id="cuerpo_noticia" itemprop="articleBody">
<div dir="ltr">
<img src="http://api.ning.com/files/K1qoAY8GpaRdzlaT59zP9hB4NfNHaEcg4exu*CHlvcu7Emh8Z4aEQXmSa7Q-7HddCZrd9GtKEp3aLSj-QPKOQSGL*EbGWeDm/578pxel_pais_logo_2007_svg.png" height="43" id="il_fi" style="padding-bottom: 8px; padding-right: 8px; padding-top: 8px;" width="200" /> </div>
<div dir="ltr">
Jaime Rubio Hancock
<time class="actualizado" datetime="" itemprop="dateModified"> </time></div>
<div dir="ltr">
<time class="actualizado" datetime="" itemprop="dateModified">27/02/2015<abbr title="Central European Time"></abbr></time> </div>
<div dir="ltr">
<br /></div>
<div dir="ltr">
El reciente debate <a href="http://verne.elpais.com/verne/2015/02/27/articulo/1425025733_797891.html">sobre si el famoso vestido de <i>Buzzfeed</i> era azul y negro, o blanco y dorado</a>,
ha puesto de manifiesto que no todos vemos los colores de la misma
forma. Ya no estamos hablando de si alguien es daltónico o no, sino de
personas sin ningún problema en la vista que interpretan la información
que reciben de diferente forma. De hecho, en la redacción de <i>Verne</i>,
dos veían el vestido blanco y dorado, y otros dos, azul y negro. En el
mismo monitor y a la vez. Además, dos de nosotros lo habíamos visto
antes de otro color.</div>
<div dir="ltr">
<br /></div>
<div class="centro" id="sumario_4|foto">
<a href="https://www.blogger.com/null" name="sumario_4"></a>
<br />
<div class="media">
<br />
<br />
<br />
<figure class="foto" itemprop="image" itemscope="" itemtype="http://schema.org/Photograph" style="clear: right; float: right; margin-bottom: 1em; margin-left: 1em;">
<img alt="" src="http://ep01.epimg.net/verne/imagenes/2015/02/27/articulo/1425042800_400163_1425054962_sumario_normal.jpg" height="320" title="" width="208" />
</figure>
</div>
</div>
<div dir="ltr">
<b>1. La constancia del color</b></div>
<div dir="ltr">
La percepción del color puede variar según el contexto, como explica a <i>Verne</i> Julio Lillo Jover, catedrático de Ergonomía de la Universidad Complutense de Madrid y coautor de <i><a href="http://www.edicionespiramide.es/libro.php?id=3568249">Percepción del color y daltonismo</a></i>.
Esto ocurre por la llamada “constancia parcial del color”. Es decir,
nosotros identificamos, por ejemplo, una camisa blanca, aunque la veamos
en una habitación menos oscura (manda menos luz a los ojos) o iluminada
por una bombilla clásica cuya luz es más amarillenta (manda distinto
tipo de luz). En todas estas situaciones "el cerebro compensa ciertos
excesos y defectos de la iluminación del entorno” y produce un resultado
similar (ver un color blanco). Esta compensación es útil para
identificar objetos en diferentes ambientes: sería muy caótico cambiar
de habitación y que nos diera la impresión de que nos hemos cambiado de
camisa por ver los mismos objetos con colores diferentes.</div>
<div dir="ltr">
En cuanto al famoso vestido, Lillo Jover nos comenta que ha
pasado la fotografía por una aplicación que le permite conocer cuanta
energía refleja la imagen del vestido en las distintas partes del arco
iris. El resultado es similar al que produciría un vestido blanco
iluminado con luz azulada, del tipo de la que es común en el atardecer.
Por otra parte, sin embargo, el mismo resultado puede también lograrse
iluminando un vestido azul con luz blanca (la situación real en la que
se obtuvo la fotografía). Como la fotografía no proporciona información
espacial suficiente para escoger entre estas dos alternativas, el
vestido puede verse blanco (cuando el cerebro efectúa la compensación
para iluminaciones azuladas) o azul (cuando no la efectúa). Lillo Jover
añade: “Una vez lo ves de un color, el cerebro tiene tendencia a seguir
viéndolo de la misma forma”.</div>
<div dir="ltr">
Es decir, quienes ven el vestido blanco es porque su
cerebro lleva a cabo esta compensación, mientras que quienes lo ven azul
no la hacen. El cerebro lleva a cabo esta operación teniendo en cuenta
“la información espacial, la luz de fondo, la ambigüedad de la
información…”. La imagen presenta la suficiente ambigüedad como para que
las opiniones estén divididas. Lillo Jover añade: “Una vez lo ves de un
color, el cerebro tiene tendencia a seguir viéndolo de la misma forma”.</div>
<div dir="ltr">
De hecho, comenta que jugando con la luz que incide sobre
el monitor “no es tan difícil alternar” entre el vestido azul (con menos
luz) o blanco (con más luz). Tampoco es fácil, avisamos. La iluminación
artificial también puede influir en que lo veamos azul y negro, y la
natural, en que lo veamos blanco y dorado, como explica ASAP Science <a href="https://www.youtube.com/watch?v=AskAQwOBvhc">en este vídeo</a>.</div>
<div dir="ltr">
Lillo Jover apunta que es un efecto similar al de la <a href="http://es.wikipedia.org/wiki/Tablero_de_ajedrez_de_Adelson">ilusión de Adelson</a>.
Da igual que sepamos que los cuadros sean del mismo tono de gris: no
hay forma de que nuestro cerebro vea ese color. Este vídeo da más datos
(e ilusiones ópticas) sobre cómo nuestro cerebro usa la comparación para
percibir los colores, ya que es la forma de interpretar lo que vemos de
la forma más eficiente posible.</div>
<div class="centro" id="sumario_2|html">
<a href="https://www.blogger.com/null" name="sumario_2"></a>
</div>
<div dir="ltr">
<br /></div>
<div dir="ltr">
<b>2. El color es una creación</b></div>
<div dir="ltr">
Además de eso, hay que recordar que en el mundo físico no
hay colores: hay luz. Los objetos absorben parte del espectro
electromagnético y reflejan el resto, que es lo que vemos y nuestro
cerebro interpreta como color.</div>
<div dir="ltr">
Tal y como se explica en <a href="http://www.bbc.com/future/story/20120209-do-we-all-see-the-same-colours">este artículo publicado en la BBC</a>,
nuestra visión de los colores comienza con los fotoreceptores que
transforman la información de la luz en las señales eléctricas que se
envían al cerebro. Estos receptores son sensibles a los azules, verdes y
rojos, y aunque su configuración puede variar ligeramente de persona a
persona, “a efectos prácticos vemos todos prácticamente lo mismo”,
explica Lillo Jover. Si no fuera así, por ejemplo, “es muy poco probable
que las mismas pantallas sirvieran para todo el mundo”. Es decir, la
causa principal de que veamos el vestido blanco o azul está en la
interpretación que hace nuestro cerebro de la imagen, no en nuestros
ojos.</div>
Algunos daltónicos tienen sólo dos (y no tres) tipos de
fotorreceptores en sus ojos y por ello ven menos colores que las
personas comunes. Por otra parte algunas mujeres tienen un tipo de cono
extra y por ello se las denomina “tetracrómatas”(“tetra es cuatro en
griego”). Este hecho les hace experimentar una gama de colores algo más
amplia de la que vemos la mayoría de los humanos. Pueden distinguir
fácilmente entre tonos de verde que a casi todos nos parecen muy
similares.<br />
Puesto que los colores son una creación de nuestro cerebro que
experimentamos individualmente, podría pensarse que no hay forma de
saber si dos personas ven lo mismo cuando dicen que algo tiene un
determinado color, ya que no hay forma de hacer pasar la experiencia
directamente de un cerebro a otro, del mismo modo que no podemos
explicarle a alguien que es ciego de nacimiento qué es el color. Como se
apunta en <a href="https://www.youtube.com/watch?v=evQsOFQju08">este otro vídeo de Vsauce</a>, conceptos como “el rojo es un color cálido” o “el azul es frío” no tienen ningún sentido para estas personas.<br />
También hay que mencionar la influencia del lenguaje. El hecho de que
un idioma no tenga palabra específica para denominar un color no
significa que los hablantes de ese idioma no lo vean. "Sí lo hacen y,
muy probablemente, el color que ven es similar al que ven los hablantes
de otro idioma. Por otra parte, algunas investigaciones también han
mostrado que la capacidad para diferenciar entre colores parecidos puede
mejorar cuando el lenguaje que habla una persona proporciona nombres
diferentes para ambos", añade Lillo Jover. Por ejemplo, rusos y griegos
utilizan normalmente dos nombres distintos para lo que nosotros
llamaríamos azules celestes y azules marinos y, por ello, son algo
mejores que nosotros diferenciando azules.<br />
<br />
<br />
https://www.ted.com/talks/lang/es/beau_lotto_optical_illusions_show_how_we_see </div>
</div>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-68084544291165487712015-02-20T03:43:00.004-08:002015-02-20T03:43:34.724-08:00Oliver Sacks se despide tras anunciar un cáncer terminal <div dir="ltr" style="text-align: left;" trbidi="on">
<div class="post-header">
<div class="post-header-line-1">
<span><span style="font-size: large;">El escritor y neurólogo relata su enfermedad en un artículo en 'The New York Times'. “Ha sido un privilegio y una aventura”</span></span></div>
</div>
<div class="post-body entry-content" id="post-body-1338036166837852459" itemprop="description articleBody">
<div dir="ltr" style="text-align: left;" trbidi="on">
<div class="enlaces">
</div>
<div class="enlaces">
<span style="font-size: small;"><img height="43" id="il_fi" src="http://api.ning.com/files/K1qoAY8GpaRdzlaT59zP9hB4NfNHaEcg4exu*CHlvcu7Emh8Z4aEQXmSa7Q-7HddCZrd9GtKEp3aLSj-QPKOQSGL*EbGWeDm/578pxel_pais_logo_2007_svg.png" style="padding-bottom: 8px; padding-right: 8px; padding-top: 8px;" width="200" /></span><br /><span style="font-size: small;"><span style="font-size: x-small;">Guillermo Altares</span><span style="font-size: x-small;"> </span></span><br /><span style="font-size: small;"><span class="data"><span style="font-size: x-small;">Madrid </span></span></span><br /><span style="font-size: small;"><span style="font-size: x-small;">20 FEB 2015 </span></span><br /><span style="font-size: small;"><span style="font-size: small;"><a href="http://cultura.elpais.com/cultura/2015/02/19/actualidad/1424366454_934409.html"><span style="color: #3778cd;">enlace</span></a></span></span><br /><span style="font-size: small;"><span style="font-size: small;"></span></span> </div>
Con un artículo sencillo, emotivo y directo, paradójicamente lleno de optimismo, el escritor y neurólogo <a href="http://elpais.com/tag/oliver_sacks/a/"><span style="color: #3778cd;">Oliver Sacks</span></a> <a href="http://www.nytimes.com/2015/02/19/opinion/oliver-sacks-on-learning-he-has-terminal-cancer.html?hp&action=click&pgtype=Homepage&module=c-column-top-span-region&region=c-column-top-span-region&WT.nav=c-column-top-span-region&_r=0"><span style="color: #3778cd;">anunció este miércoles en </span><em><span style="color: #3778cd;">The New York Times</span></em></a> que padece un cáncer terminal y que le quedan semanas de vida. “Por encima de todo, he sido un ser con sentidos, un animal pensante, en este maravilloso planeta y esto, en sí, ha sido un enorme privilegio y una aventura”, escribe este autor insólito, cuyos libros sobre los recovecos de la mente humana, como <em>Despertares</em> o <em>El hombre que confundió a su mujer con un sombrero</em>, han sido adaptados al cine y han vendido millones de ejemplares en todo el mundo.<br /><div class="columna_texto">
<div class="cuerpo_noticia" id="cuerpo_noticia">
<div class="izquierda" id="sumario_1|apoyos">
<a href="https://www.blogger.com/null" name="sumario_1"></a> <br /><div class="ademas">
</div>
<div class="ademas">
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><img alt="Oliver Sacks" height="235" src="http://ep01.epimg.net/cultura/imagenes/2015/02/19/actualidad/1424366454_934409_1424369255_noticia_normal.jpg" style="margin-left: auto; margin-right: auto;" title="Oliver Sacks" width="560" /></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Oliver Sacks, en 2002. / <span class="firma">Tomas Muscionico</span></td></tr>
</tbody></table>
</div>
<div class="ademas">
</div>
</div>
<a href="http://elpais.com/diario/2002/04/06/babelia/1018049950_850215.html"><span style="color: #3778cd;">Oliver Sacks</span></a>, que tiene 81 años, recibió la mala noticia hace unas semanas, cuando le informaron de que padece múltiples metástasis en el hígado, que proceden de un tumor primigenio en el ojo detectado hace ocho años. Asegura que los médicos pueden ralentizar el avance, pero no detenerlo.<br /> Titulada <em>Mi propia vida</em>, en homenaje a la autobiografía que escribió el filósofo David Hume cuando supo también que padecía una enfermedad sin cura, su despedida está llena de optimismo: “Me encuentro intensamente vivo y quiero y espero que el tiempo que me quede por vivir me permita profundizar mis amistades, despedirme de aquellos a los que quiero, escribir más, viajar si tengo la fuerza suficiente, alcanzar nuevos niveles de conocimiento y comprensión. Esto incluirá audacia, claridad y hablar con franqueza; trataré de ajustar mis cuentas con el mundo. Pero también tendré tiempo para divertirme (incluso para hacer alguna estupidez)”.<br />Sacks explica que en abril publicará sus memorias y que tiene otros cuantos libros a punto de ser terminados. El escritor confiesa que no piensa dedicarse a nada que no considere esencial, que no quiere perder el tiempo. “No puedo decir que no tenga miedo. Pero mi sentimiento predominante es el de la gratitud. He amado y he sido amado; he dado mucho y me ha dado bastantes cosas; he leído, viajado y escrito”.<br />Nacido en Londres en 1933, Sacks vive en Nueva York desde los años sesenta. A lo largo de los años, ha ido plasmando las experiencias con las que se cruzó en su consulta en libros editados en España primero por Mario Muchnik y actualmente por Anagrama. <em>Un antropólogo en Marte, Migraña, Con una sola pierna, La isla de los ciegos al color, El hombre que confundió a su mujer con un sombrero, El tío Tungsteno, Veo una voz</em><em>,</em> <em>Despertares y Alucinaciones</em> son sus títulos más conocidos.<br /> En <a href="http://elpais.com/diario/1997/04/17/cultura/861228005_850215.html"><span style="color: #3778cd;">una entrevista con este diario en 1996</span></a>, con motivo de la publicación de <em>Un antropólogo en Marte</em>, Sacks habló precisamente de la relación de los pacientes con la enfermedad. "Para mí es fundamental la relación que se establece entre enfermedad e identidad y la forma en que la gente reconstruye su mundo y su vida a partir de esa enfermedad", explicó. "Todos los casos que expongo en este libro han descubierto una vida positiva que surgía tras una enfermedad. El pintor que tras perder la visión del color no desea recuperarla. El ciego de nacimiento que recobra la vista hacia la mitad de su vida y no puede soportarlo. La mujer autista que encuentra en el autismo una parte de su identidad... Pero no quiero parecer sentimental ante la enfermedad. No estoy diciendo que haya que ser ciego, autista o padecer el síndrome de Tourette, en absoluto, pero en cada caso una identidad positiva ha surgido tras algo calamitoso. A veces, la enfermedad nos puede enseñar lo que tiene la vida de valioso y permitirnos vivirla más intensamente".<br /> Hace unos meses, Sacks publicó <a href="http://www.nybooks.com/articles/archives/2013/feb/21/speak-memory/"><span style="color: #3778cd;">un artículo maravilloso en </span><em><span style="color: #3778cd;">The New York Review of Books</span></em></a> sobre los recuerdos y la ficción titulado <em>Habla, memoria</em>. En él relataba como según envejecía iban surgiendo recuerdos cada vez más claros de su infancia; recordaba, por ejemplo, dos episodios en los que bombas nazis cayeron cerca de su casa en Londres cuando era un niño durante la II Guerra Mundial. Sin embargo, su hermano mayor le explicó que el primero lo había vivido, pero que el segundo se lo habían contado, porque en ese momento ya no estaba en Londres.<br /> Este episodio le sirve a Sacks para hacer una larga disertación sobre la importancia de la ficción en la vida, porque al final lo que hemos leído y nos ha impresionado acaba por ser tan importante como lo que hemos vivido. “Nosotros como seres humanos hemos desarrollado sistemas de memoria que tienen fallos, fragilidades e imperfecciones”, escribe. “La indiferencia sobre las fuentes nos permite asimilar lo que leemos, lo que nos cuentan, lo que dicen otros y pensar, escribir y pintar, de una forma tan rica y tan intensa como si fuesen experiencias primarias. Nos permite ver y escuchar con los ojos y los oídos de otros, entrar en la mente de los demás, asimilar el arte y la ciencia y la religión de toda una cultura”.<br />Este texto es una muestra de la forma que tiene Sacks de escribir y pensar y, a la vez, de la inmensa influencia de sus escritos sobre la manera en que vemos el mundo en el que vivimos. La tranquila lucidez con la que afronta la noticia de su cáncer sin retorno es una prueba más de su sabiduría.<br /><br /><h4 class="ademas">
<span class="sin_enlace">más información</span></h4>
<div class="ademas">
<ul>
<li><a class="normal" href="http://elpais.com/diario/1997/04/17/cultura/861228005_850215.html"><span style="color: #3778cd;">Siete relatos de Sacks exponen el lado positivo de la enfermedad</span></a></li>
<li><a class="normal" href="http://elpais.com/elpais/2013/07/10/opinion/1373457617_864305.html"><span style="color: #3778cd;">Al cumplir los 80. Por Oliver Sacks</span></a></li>
</ul>
</div>
</div>
</div>
</div>
</div>
</div>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-72938957313311979202015-01-28T02:26:00.001-08:002015-01-28T02:31:55.827-08:00Crean capas de la invisibilidad<div dir="ltr" style="text-align: left;" trbidi="on">
<em>Ingenieros de la Universidad de Arizona (EEUU) descubren cómo aprovechar mejor la llamada “refracción negativa” para usos muy diversos</em><br />
<br />
Una investigación de la Universidad de Arizona (EEUU) ha revelado cómo
metamateriales tallados con una impresora 3D pueden servir para ocultar objetos
o personas, por refracción negativa, sin necesidad de que se pierda energía en
el proceso, como solía ocurrir. El avance permitirá fabricar capas de
invisibilidad o construir microscopios que registren objetos tan pequeños como
proteínas o virus individuales, entre otras aplicaciones.<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a class="colorbox init-colorbox-processed cboxElement" href="http://uanews.org/sites/default/files/story-images/invisman_web.jpg" rel="gallery-node-58200" style="margin-left: 1em; margin-right: 1em;" title=""><img alt="" src="http://uanews.org/sites/default/files/styles/story-page-headline-800-300/public/story-images/invisman_web.jpg?itok=3otqysxu" height="256" title="" typeof="foaf:Image" width="400" /></a></div>
<span style="font-family: inherit;"></span><br />
<div style="text-align: justify;">
<span style="font-family: inherit;">Los
<strong>metamateriales son materiales artificiales con propiedades que no se
encuentran normalmente en los materiales naturales</strong>. Estas propiedades
se obtienen a partir de la estructura de dichos metamateriales, y no de su
composición. </span><a href="http://www.nature.com/ncomms/2014/141219/ncomms6841/full/ncomms6841.html" target="_blank"><span style="font-family: inherit;">En una investigación reciente</span></a><span style="font-family: inherit;">, realizada por Hao Xin, profesor
de ingeniería eléctrica e informática en la Universidad de Arizona (EEUU), se ha
descubierto que los metamateriales pueden ayudar a fabricar superlentes para
microscopio –de manera que estos podrían registrar detalles a nivel molecular- o
escudos para ocultar aviones militares, e incluso a personas. Por tanto, en este
estudio se ha dado un paso adelante hacia la invisibilidad. <br /><br /><span style="color: #001387; font-weight: bold;">Patrones geométricos que te
vuelven invisible </span><br /><br />En un comunicado de la Universidad de Arizona,
se explica cómo se lograría este último punto. Para empezar, Xin y su equipo han
fabricado en laboratorio, con una <strong>impresora 3D,</strong> metamateriales,
a partir de metales, plásticos y otras sustancias. <br /><br />Similares a bolas de
<strong>plástico poroso y a pequeñas placas de circuitos de cables de
cobre</strong>, los objetos resultantes tienen una configuración especial, con
patrones geométricos capaces de doblar ondas de energía de forma anómala. En
particular, exhiben una propiedad llamada “refracción negativa”, que permite
refractar dichas ondas en la dirección opuesta a la de cualquier material
existente. <br /><br />El resultado es el siguiente. Por ejemplo, si miramos una
pajita dentro de un vaso de agua a través de un prisma de refracción
negativa,<strong> la pajita aparecería invertida</strong>: el trozo que en
realidad está sobre la superficie del agua aparecería por debajo de esta y,
además, estaría inclinado en la dirección contraria a la que en realidad está.
<br /><br />Otro ejemplo. En un escenario más futurista, si se colocase a una
persona una capa con propiedades refractarias artificialmente diseñadas, solo se
vería una parte o nada de esa persona, en función de la distribución del índice
de refracción del metamaterial que conforme dicha capa (es decir, en función de
cómo las ondas lumínicas que de ella rebotasen alcanzaran los ojos del
espectador).<br /><br />Los metamateriales con refracción negativa, sin embargo, han
presentado desde siempre un problema bastante irritante para los ingenieros:
<strong>reducen la fuerza de las ondas y, en consecuencia, provocan una pérdida
de energía. </strong><br /><br />Xin y su equipo han resuelto este problema,
aseguran, con el diseño de “un metamaterial que conserva la refracción negativa,
pero no disminuye la energía”. De hecho, incluso provoca una ganancia de
energía, señalan los investigadores. <br /><br />Esto ha sido logrado mediante la
incorporación en los metamateriales de diodos simples que funcionan con baterías
de túnel (un tipo de dispositivo semiconductor), <strong>usando técnicas de
micronanofabricación.</strong> <br /><br />Metamateriales que a un tiempo tengan
refracción negativa y sean capaces de ganar energía ayudarían a superar
problemas como la difracción en las lentes, que impide que incluso<strong> los
microscopios más sofisticados puedan registrar objetos extremadamente finos,
como proteínas o virus individuales. </strong><br /><br /><span style="color: #001387; font-weight: bold;">La invisibilidad, cada vez más
cerca </span><br /><br />Más allá de estas superlentes para usos biomédicos, los
metamateriales están siendo estudiados para producir circuitos de microondas de
alto rendimiento, edificios más energéticamente eficientes o más resistentes a
terremotos; <strong>convertidores de energía solar más potentes;</strong> e
incluso para la mejora de las tecnologías de sensores y antenas. <br /><br />La
invisibilidad parece cada vez más cercana, si se tienen en cuenta este y otros
avances recientes, como el los camuflajes ópticos fabricados a un coste de 150
dólares o el de la impresora 3D que fabrica mantos de invisibilidad en cuestión
de horas.<br /><br />Fuente: </span><a href="http://www.tendencias21.net/Fabricaran-capas-de-invisiblidad-con-metamateriales-impresos-en-3D_a39478.html" target="_blank"><span style="font-family: inherit;">Tendencias 21</span></a><span style="font-family: inherit;"> y </span><a href="http://uanews.org/story/engineering-discovery-brings-invisibility-closer-to-reality" target="_blank"><span style="font-family: inherit;">UANEWS</span></a></div>
<div class="separator" style="clear: both; text-align: center;">
</div>
<div class="clear">
</div>
<div class="para_11393234 resize" id="para_3" style="background-color: #e9e9e9; border-image: none; border: 1px solid rgb(204, 204, 204); max-width: 599px; padding: 6px;">
<div class="texte">
<div class="access firstletter">
<strong>Referencia bibliográfica:</strong> <br />
<br />
Hao Xin, et al. <a class="liens" href="http://www.nature.com/ncomms/2014/141219/ncomms6841/full/ncomms6841.html" target="_blank">Microwave Gain Medium With Negative Refractive Index</a>. <em>Nature Communications </em>(2015). DOI: 10.1038/ncomms6841. </div>
</div>
</div>
</div>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-74889040355161985702014-05-09T08:27:00.002-07:002014-05-09T08:29:53.061-07:00Pareidolia facialMIGUEL ÁNGEL CRIADO<br />
EL HUFFINGTON POST<br />
<div class="comments_datetime_new border_none relative v05" data-beacon="{"p":{"mnid":"entryByline"}}">
<b><a href="http://www.huffingtonpost.es/2014/05/09/ver-caras-en-cosas-pareidolia_n_5294232.html?utm_hp_ref=spain">enlace</a></b><br />
<span class="posted-and-updated"><span itemprop="dateModified">09/05/2014 </span></span> </div>
<div class="entry_content">
<div class="news_main_info">
<div class="like_box_news margin_bottom_10 clearfix">
<div class="clearfix">
<div class="float_left side_hold">
<div class="fb_like_cont">
<div class="align_left">
<div class="absolute large-image-caption white_bg arial_11 color_333333" id="caption_5294232" style="display: none;">
Caras en cosas. Cortesía flickr/joseanavas | JOSE A. NAVAS/FLICKR </div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class="clear">
</div>
<div class="entry_body_text">
<div class="float_left">
<div class="ad_share_box hidden">
<style>#news_entries #ad_sharebox_260x60 img {padding:0px;margin:0px}</style>
<br />
<div class="ad_wrapper" id="ad_sharebox_260x60">
</div>
</div>
</div>
<div class="articleBody" itemprop="articleBody">
<a href="http://i.huffpost.com/gen/1786321/thumbs/n-CARAS-EN-COSAS-large570.jpg" imageanchor="1" style="clear: right; float: right; margin-bottom: 1em; margin-left: 1em;"><img alt="ver caras en cosas pareidolia" border="0" class="pinit" src="http://i.huffpost.com/gen/1786321/thumbs/n-CARAS-EN-COSAS-large570.jpg" height="83" id="img_caption_5294232" width="200" /></a><a href="http://www.huffingtonpost.es/2013/04/05/caras-en-cosas-fotos_n_3019265.html" sl-processed="1" target="_hplink">Ver un animal en las nubes, la figura de una mujer en la cima de una montaña o a Jesús en una tostad</a>a no es fruto de una gran imaginación ni de los efectos de una droga. Es culpa de nuestro cerebro, que está diseñado para <a href="http://www.huffingtonpost.es/news/ver-caras-en-cosas/" sl-processed="1" target="_hplink">ver caras allí donde no hay nada</a>. Un estudio explica ahora la base racional de estas ilusiones.<br />
Una sencilla búsqueda en Internet muestra que lo de ver <a href="http://www.huffingtonpost.es/2013/12/09/facespics-caras-en-cosas_n_4411609.html" sl-processed="1" target="_hplink">la imagen de Jesús aparecer en una tostada recién hecha</a> (o a la virgen María en una tortilla de maíz o a Buda en el tronco de un árbol) no es ni magia ni desbordante imaginación. Es un fenómeno llamado pareidolia facial en el que un estímulo externo activa la percepción de un rostro.<br />
Aunque no se sabe su incidencia, esta percepción sensorial ilusoria está muy extendida. Tanto que un grupo de científicos ha decido desentrañarla. Investigadores de la Academia de Ciencias China, la Universidad de Toronto y otras dos universidades reunieron a 20 personas sanas y sin problemas de visión ni mentales.<br />
Los voluntarios tuvieron que ver cinco tipos de imágenes: unas en las que el rostro era fácil de distinguir, otras donde era muy difícil y varias series donde no había rostros, sólo ruido. También tuvieron que buscar nueve letras del alfabeto latino en fotografías con mayor o menor dificultad. En total realizaron 960 pruebas. Al mismo tiempo, se escaneó su cerebro mediante resonancia magnética.<br />
En una primera fase de entrenamiento, los participantes vieron imágenes con rostros fáciles de distinguir y, después, más difíciles mezcladas con las de puro ruido. Pero en la fase de prueba final, ninguna de las imágenes contenía algún rostro o letra. Sin embargo, en el 34% de las ocasiones, los voluntarios vieron caras allí donde nos las había. La visión de las letras fue incluso algo superior, un 38% de las ocasiones. Los investigadores vieron que, además, había una correlación entre ambas pareidolias. Los que veían letras más veces, tendían a ver aún más rostros. <br />
Aunque la muestra no es significativa, todos los participantes presentaron pareidolia facial y sólo seis carecían de la numérica. “La razón por la que vemos caras inexistentes en imágenes de ruido es que nuestro lóbulo frontal envía señales a nuestro córtex visual posterior para hacerlo muy sensible a las caras como si fueran píxeles”, explica el profesor Kang Lee, de la Universidad de Toronto y principal autor de la investigación. “Incluso aunque estos píxeles no formen parte de un rostro en realidad, el cerebro visual, bajo el influjo de nuestras expectativas y creencias los interpreta como parte de una cara”, añade.<br />
Con las imágenes por resonancia magnética funcional (fMRI), los investigadores pudieron ver que las zonas del cerebro que más se activaban se encontraban en los lóbulos occipital y temporales, parte de la corteza visual. Aunque presenciaron la activación de toda una compleja red neuronal, la parte del cerebro que más trabajaba era la conocida como la zona derecha del giro fusiforme, en especial con las caras. Son muchas las investigaciones que lo consideran el responsable del reconocimiento facial.<br />
<br />
<strong>EN LA PARTE MÁS RACIONAL DEL CEREBRO</strong><br />
De hecho, vieron una correlación entre la activación de esta zona y la intensidad de la pareidolia facial. El proceso normal de reconocimiento parte de un estímulo externo que recoge la retina, llega al córtex visual y, desde aquí, hasta el lóbulo frontal, donde residen las funciones ejecutivas. Con la pareidolia, el proceso es a la inversa. “El lóbulo frontal envía información al córtex visual que determina lo que vemos”, explica Lee. Es la parte más racional y avanzada del cerebro la que genera estas ilusiones.<br />
Para los investigadores, el cerebro está diseñado para ver y reconocer caras. Desde un punto de vista biológico, en detectar una cara amiga o enemiga, podría irnos la vida. Además, su reconocimiento es básico para la interacción social.<br />
Lo que es anecdótico es ver a Jesús, a Buda o a Elvis en tostadas, árboles y piedras. Se debe a la cultura de cada uno. Como dice Lee: “Tu sistema de creencias y experiencia cultural debe influir en las caras que puedes ver. Un budista verá a Buda, pero un cristiano verá a Jesús o a María y un niño podría ver a Mickey Mouse”.</div>
</div>
</div>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-43751239969241390052012-10-02T09:51:00.000-07:002012-10-02T09:51:05.080-07:00“A mi novio solo lo reconozco por su perilla y por su voz”<strong>El cerebro de Esther le impide reconocer y procesar lo que sus ojos ven</strong><br />
<strong></strong><br />
<div class="enlaces">
<a href="http://elpais.com/diario/2003/03/06/ciberpais/1046921731_850215.html"><strong>El GPS da el sentido de orientación a dos personas con agnosia visual</strong> </a></div>
<div class="firma_comentarios estirar">
<span class="firma"><span class="autor"></span></span> </div>
<div class="firma_comentarios estirar">
<span class="firma"><span class="autor"><a href="http://sociedad.elpais.com/autor/paloma_marin/a/" rel="author" title="Ver todas las noticias de Paloma Marín">Paloma Marín</a> </span></span></div>
<div class="firma_comentarios estirar">
<span class="firma"><span class="autor"></span><span class="data">Cuenca</span></span></div>
<div class="firma_comentarios estirar">
<span class="firma"><span class="data"></span>1 OCT 2012</span></div>
<div class="firma_comentarios estirar">
<span class="firma">El País.com</span></div>
<div class="firma_comentarios estirar">
<span class="firma"><a href="http://sociedad.elpais.com/sociedad/2012/10/01/actualidad/1349089428_856839.html">enlace</a></span><a class="posicionador" href="javascript:void(0);" title="ampliar foto"><span class="ampliar_foto encima" id="capaAmpliarFotoHover_1349137218" style="display: none;">ampliar foto</span></a></div>
<a class="posicionador" href="javascript:void(0);" title="ampliar foto"><div class="columna_texto">
<div class="contenedor_fotonoticia_compartir">
<div class="centro">
<div class="foto figure">
</div>
</div>
</div>
</div>
</a><div class="columna_texto">
<div class="contenedor_fotonoticia_compartir">
<div class="centro">
<div class="foto figure">
"¿Eso es una ceja, unas gafas o el ojo? ¡No veo, no me puedo mover!". Estas fueron las dos primeras frases que dijo Esther Chumillas cuando despertó en la UCI del hospital madrileño del Niño Jesús después de sufrir una meningitis. "Por poco me mata con 13 años", afirma con voz temblorosa. Esther padece agnosia visual. Apenas se conocen ocho casos como el suyo en el mundo de las aproximadas 7.000 enfermedades raras diagnosticadas por la <a href="http://www.who.int/es/" target="_blank" title="Organización Mundial de la Salud">Organización Mundial de la Salud (OMS).</a></div>
</div>
</div>
<div class="cuerpo_noticia" id="cuerpo_noticia">
Cuando salió de cuidados intensivos comenzó a divisar bultos, pero no sabía quien era esa chica del espejo. No se reconocía. "Era un espectro. Me miraba y solo veía rasgos difuminados como si fuesen estelas. Solo veía un fantasma perdido en un espejo. No sabía si lo que tocaba era mi boca, mi oreja o la nariz. Nada". A pesar de los años transcurridos —hoy tiene 29— la angustia sigue apoderándose de ella cuando lo recuerda.<br />
<table cellpadding="0" cellspacing="0" class="tr-caption-container" style="float: right; text-align: center;"><tbody>
<tr><td style="text-align: center;"><img alt="" height="200" src="http://ep01.epimg.net/sociedad/imagenes/2012/10/01/actualidad/1349089428_856839_1349183677_noticia_normal.jpg" style="margin-left: auto; margin-right: auto;" title="" width="320" /></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Esther Chumillas Moreno, paciente con pérdida <br />
de memoria visual. / <span class="firma">ÁLVARO GARCÍA</span></td></tr>
</tbody></table>
Lo que le ocurre a esta joven, según la médica María José Ibáñez, del Hospital de La Paz, encargada del caso de Esther, es que "sus ojos hablan un idioma y su cerebro otro". "De ahí que es casi imposible que se pueda orientar" explica la neuróloga y agrega: "Además, la meningitis redujo su campo de visión. Esther solo puede ver de frente, como si viese a través de un tubo".<br />
“Una parte de mi cerebro murió con 13 años, todo por la meningitis”<br />
Tras salir de la UCI y ser trasladada a planta poco a poco su vista fue mejorando, pero seguía sin reconocer a esa joven de pelo castaño delante del espejo: "Algo seguía fallando dentro de mi cabeza". Su familia le repetía que eran ellos. "Yo les tocaba, pero nada, no les identificaba. Solo veía trozos de cosas mal pegadas". “Una auténtica pesadilla” con la que tendría que convivir toda su vida.<br />
"Iba y venía al hospital pero ningún médico me decía lo que me pasaba exactamente<em>"</em>. Intentaron explicarle por qué no identificaba los objetos, las calles y por qué sí era capaz de ver los números, las letras y los colores. Fue entonces cuando María Concepción Fournier, del hospital madrileño Niño Jesús, dio con la enfermedad. "Me dijo que una parte de mi cerebro había muerto por culpa de la meningitis". Esta había atacado su lóbulo occipital, es decir, el que se encarga de descifrar los impulsos eléctricos que manda el nervio óptico al cerebro para identificar las imágenes.<br />
Con el tiempo y mucho trabajo, Esther ha aprendido a cuidarse sola dentro de lo que puede (tiene reconocida un 85% de minusvalía). <a href="http://elpais.com/diario/2003/03/06/ciberpais/1046921731_850215.html" target="_blank">Cuenta con el apoyo de un GPS</a> que le indica por dónde debe ir, aunque cuando se queda sin cobertura "es una odisea". "Siempre me acabo perdiendo y mis padres o mi novio tienen que venir a recogerme".<br />
A su pareja, Manuel, solo le reconoce por su perilla. <em>"</em>Su madre dice que se la quite, pero si lo hace me hace la pascua a mí… No sabría si es él u otro<em>"</em> comenta entre risas. A pesar de hablar con "mucha guasa" y "tomarse la vida con mucha filosofía" para Esther no ha sido nada fácil aceptar su enfermedad.<br />
"Casi me dan por muerta dos veces. En el colegio mis compañeros se reían de mí porque no sabía ni multiplicar<em>"</em> comenta la joven. "Se corrió, en el instituto, el bulo que el herpes que me salió a raíz de la meningitis era contagioso". Todos estos factores y 33 pastillas diarias, tres veces al día, la sumieron en una profunda depresión y a "tener pavor a salir de su casa". A todo ello hay que añadirle un estimulador con una pila de 6 centímetros de diámetro y dos de grosor que absorbe el exceso de electricidad cuando le va a dar un ataque de epilepsia. "Por eso no puedo no beber alcohol, ni tampoco ir a discotecas, las luces me producen convulsiones".<br />
Según la OMS solo existen ocho casos en el mundo de agnosia visual. Esther es una.<br />
Cumplió los 14, llegaron los 15, y seguía igual sin saber quién era la chica del espejo. Tampoco su familia, ni sus amigos. "Comer era una odisea. No sabía distinguir una cuchara de un tenedor o de un cuchillo".<br />
Hasta que le diagnosticaron su agnosia, los profesores veían que iba bien en matemáticas y lengua —ya que puede reconocer los números y las letras— pero que no discernía las obras de arte. “Me decían que era paranoia mía”. Acudió a la ONCE, que reconoció su enfermedad, y fue cuando decidió invertir su tiempo con los libros. Sus esfuerzos se vieron recompensados. Aprobó selectividad con un 8,2, estudió educación especial y se sacó la oposición de pedagogía terapéutica. Desde entonces da clases "a chavales con problemas". Ahora tiene a su cargo dos hermanas ciegas y un chico con autismo, "es el más rebelde pero bueno" comenta mientras sonríe y se coloca sus modernas gafas rosa.<br />
Manuel la observa desde el sofá y espera a que acabe de hablar. Cuando termina, este diseñador gráfico de 32 años, toma la palabra: "Ojalá todos fuesen como ella". "Tiene una vitalidad envidiable. Siempre es agradecida, a su lado nadie tiene derecho a quejarse". "Es tan gratificante poder ayudarla. Es más lo que da de lo que recibe".<br />
Con el tiempo su vista ha mejorado, aunque nunca ha visto las casas colgadas de Cuenca. "Sé que están en un entorno verde, que pasa un río porque lo oigo y hay un puente con piedras. Así es como me imagino que son, pero no lo sé".</div>
</div>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-22374861652679864022012-07-27T03:41:00.000-07:002012-07-27T03:46:55.237-07:00Un fármaco permite que ratones con la retina lesionada vean<div class="cuerpo_noticia" id="cuerpo_noticia">
<span class="autor">Jaime Prats</span><br />
<span class="autor"></span><span class="data">Valencia </span><br />
<span class="data"></span>26 JUL
2012<br />
ELPAIS.com<br />
<a href="http://sociedad.elpais.com/sociedad/2012/07/26/actualidad/1343328923_993182.html">enlace</a><br />
<br />
Un fármaco ha devuelto parcial y temporalmente la visión a ratones ciegos a
través de un experimento que plantea una nueva vía en los intentos de regenerar
la retina, el tejido que se encuentra en la parte posterior interna del ojo.<br />
En este caso, los esfuerzos no vienen de la mano del uso de células madre ni
de prótesis electrónicas. La esperanza de combatir la ceguera llega en forma de
una molécula compuesta de nombre complejo (acrilamida-azobenceno-amonio
cuaternario, AAQ) que inyectada en pequeñas cantidades en el vítreo (la
sustancia gelatinosa que se encuentra en el interior de los ojos) consigue
devolver transitoriamente la sensibilidad a la luz a animales de
experimentación.<br />
El tiempo dirá si esta línea de investigación, <a href="http://www.sciencedirect.com/science/article/pii/S0896627312004886">publicada
en la revista <em>Neuron</em></a>, de momento en una etapa inicial de
desarrollo, llega algún día a los seres humanos y sirve para tratar algunas de
las principales causas de lesión ocular en los países desarrollados,
relacionadas en su mayoría con la degeneración de este tejido.<br />
La retina se ha comparado tradicionalmente con la película de una cámara
fotográfica convencional. La luz pasa a través de la córnea y el cristalino (la
lente de enfoque) y se refleja en esta superficie, donde se transforma en
señales eléctricas que el nervio óptico traslada al cerebro gracias a los
fotoreceptores (unas células nerviosas llamadas conos y bastoncillos),
equivalentes a los píxeles de las actuales cámaras digitales.<br />
Algunas de las principales causas de ceguera, ya sea por motivos
hereditarios, como la retinosis pigmentosa, o adquiridos, como la degeneración
macular, tienen su origen en la muerte de estos fotorreceptores, que no son más
que un tipo de neuronas especializadas. Una vez destruidos –con la consecuente
pérdida de visión- no existe ninguna terapia capaz de devolver la vista a estos
pacientes. De ahí el interés por encontrar tratamientos eficaces.<br />
El camino abierto por investigadores de la Universidad de California en
Berkley, la Universidad de Munich y de Washington en Seattle se basa en los
efectos de la molécula AAQ en la retina. Este fármaco no actúa sobre los
fotorreceptores lesionados, sino sobre otro tipo de neuronas de la retina. En su
estado natural estas células son <em>ciegas</em>, pero gracias al fármaco
desarrollan sensibilidad a la luz, como indica en el trabajo Richard Kramer,
profesor de biología molecular de la Universidad de California en Berkley, y se
comportan de forma similar a los fotorreceptores.<br />
<div class="derecha" id="sumario_2|html">
<a href="http://www.blogger.com/" name="sumario_2"></a>
<br />
<div class="texto_grande">
Los investigadores ensayaron los efectos del medicamento en ratones con una
serie de mutaciones genéticas que provocan la muerte de los fotorreceptores al
poco de nacer. Tras inyectar pequeñas dosis de AAQ en los ojos, los científicos
comprobaron que cuando los roedores eran expuestos a la luz contraían sus
pupilas y huían de ésta. Ambos comportamientos serían impensables si hubieran
permanecido ciegos.</div>
</div>
Kramer plantea en el trabajo que esta técnica comporta ventajas respecto a
las principales líneas de investigación que tratan de subsanar los problemas de
retina. Hasta el momento se han intentado aplicaciones basadas en el uso de
células madre –destinadas a suplir la función de los fotorreceptores
lesionados-, en la terapia génica –para combatir las lesiones genéticas
responsables de enfermedades como la retinosis pigmentaria- en prótesis
electrónicas, capaces de transformar la luz que llega al fondo del ojo en
señales eléctricas que, a su vez, transmiten al nervio óptico.<br />
Todos estos casos, con distintos resultados todos en fase experimental,
alteran de forma permanente la retina o son invasivos. “La ventaja de nuestro
enfoque es que al tratarse de un simple fármaco, se puede cambiar la dosis,
combinarla con otras técnicas o suspender el tratamiento si los resultados no
son los esperados” explica Kramer.<br />
<div class="izquierda" id="sumario_3|html">
<a href="http://www.blogger.com/" name="sumario_3"></a>
El inconveniente sería que los resultados, de momento, además de parciales
(devuelve algo de sensibilidad a la luz, no la visión), son temporales. El
catedrático de oftalmología de la Universitat de Barcelona Alfredo Adán reconoce
a este diario lo novedoso del tratamiento, aunque también advierte de que se ha
probado solo en ratones de experimentación: “no todo lo que funciona en estos
animales es trasladable a las personas”. Nicolás Cuenca,especialista en retina
del departamento de fisiología, genética y microbiología de la Universidad de
Alicante, llama la atención sobre otra cuestión: "no está claro que calidad de
visión tienen los animales". </div>
Russell Van Gelder, jefe del departamento de oftalmología en la Universidad
de Washington, coautor del trabajo, también se muestra cauto. A pesar de
tratarse de una nueva esperanza para a pacientes con degeneración de retina,
señala que aún falta por comprobar si estos compuestos, que habría que mejorar,
son seguros y funcionan en las personas de forma similar a como lo hacen en
ratones, como ya apuntaba Adán.<br />
<br />
<h4>
<span class="sin_enlace">más información</span></h4>
<a href="http://www.sciencedirect.com/science/article/pii/S0896627312004886">http://www.sciencedirect.com/science/article/pii/S0896627312004886</a><br />
<ul>
<li><a class="normal" href="http://elpais.com/diario/2006/11/09/sociedad/1163026809_850215.html">Ratones ciegos recuperan la visión con un trasplante celular en la retina</a></li>
<li><a class="normal" href="http://sociedad.elpais.com/sociedad/2012/02/08/actualidad/1328722572_365877.html">La terapia génica cura un raro caso de ceguera hereditaria</a></li>
<li><a href="http://elpais.com/diario/2011/09/26/sociedad/1316988006_850215.html">Luz verde al primer ensayo europeo con células madre embrionarias</a></li>
<li><a class="normal" href="http://tecnologia.elpais.com/tecnologia/2005/04/06/actualidad/1112776079_850215.html">Un ojo artificial aporta esperanzas a personas con graves problemas de visión</a></li>
<li><a class="normal" href="http://elpais.com/diario/2007/02/18/sociedad/1171753201_850215.html">Un 'ojo biónico' permite a seis ciegos recobrar parcialmente la visión</a> </li>
</ul>
</div>Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-62718243449756855062011-12-19T04:09:00.000-08:002011-12-19T04:10:46.882-08:00Síndrome de Alicia en el País de las Maravillas<h1>
<span style="font-family: inherit; font-size: large;">La enfermedad que inspiró Lewis Carroll</span></h1>
<h2>
<span style="font-size: small;">Un estudio analiza por primera vez el síndrome de Alicia en el País de las Maravillas, una dolencia rara e infradiagnosticada </span></h2>
<div class="meta">
<span class="autor">AINHOA IRIBERRI</span></div>
<div class="meta">
<span class="autor"></span><span class="lugar">Madrid</span></div>
<div class="meta">
<span class="lugar"></span><span class="fecha">19/12/2011 </span></div>
<div class="meta">
<span class="fecha">Público.es</span></div>
<div class="meta">
<span class="fecha"><a href="http://www.publico.es/ciencias/412891/la-enfermedad-que-inspiro-lewis-carroll">http://www.publico.es/ciencias/412891/la-enfermedad-que-inspiro-lewis-carroll</a></span></div>
<div class="meta">
<br /> </div>
Aunque Lewis Carroll no lo sabía, es posible que la protagonista de su novela más famosa, la niña Alicia que viajó al País de las Maravillas, no viera crecer los objetos porque se trasladara a un mundo paralelo. Quizás lo que le pasaba es que era víctima del síndrome que lleva su nombre, una patología infrecuente pero que, de cuando en cuando, se ve en los servicios de urgencia de los hospitales pediátricos de todo el mundo. <br />
<div id="cuerpoNoticia">
<table cellpadding="0" cellspacing="0" class="tr-caption-container" style="float: right; margin-left: 1em; text-align: right;"><tbody>
<tr><td style="text-align: center;"><a href="http://imagenes.publico.es/resources/archivos/2011/12/18/1324245641911niniadn.jpg" imageanchor="1" style="clear: right; margin-bottom: 1em; margin-left: auto; margin-right: auto;"><img alt="Alicia descubre la puerta al País de las Maravillas, en una ilustración antigua." border="0" height="240" src="http://imagenes.publico.es/resources/archivos/2011/12/18/1324245641911niniadn.jpg" width="320" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Alicia descubre la puerta al País de <br />
las Maravillas, en una ilustración antigua.</td></tr>
</tbody></table>
Por primera vez, un estudio publicado en <em>Revista Española de Neurología</em> ha descrito las características de una serie extensa de casos del síndrome de Alicia en el País de las Maravillas (SAPM) algo que, según Rebeca Losada, neuropediatra del Hospital Universitario Niño Jesús de Madrid, servirá para lograr "un manejo más fácil" de esta enfermedad, "a veces infradiagnosticada porque no existe conocimiento de ella o porque se confunde con otras patologías más frecuentes". <br />
<div class="ladillo">
Los niños que padecen este síndrome sufren un cuadro de trastornos complejos de la percepción visual; es decir, ven los objetos alterados en su forma, tamaño, color y en lo que se refiere a su situación espacial. Pero, además, los jóvenes afectados (la edad media es de 9 años y medio) pueden sufrir también visión invertida, palipnosia (ver las imágenes repetidas) o prosopagnosia (no son capaces de reconocer las caras), entre otros síntomas. </div>
Losada reconoce que, durante el tiempo que duran los episodios, "muchos pacientes lo viven con miedo". Sin embargo, cuando se pasa, todos son conscientes de que lo que han visto con tanta claridad no forma parte de la realidad. "Me sorprende la naturalidad con la que los niños explican lo que les pasa y la tranquilidad con la que cuentan que lo que ellos ven no es real", comenta la especialista en neurología pediátrica.<br />
<br />
<strong>Sentir miedo</strong><br />
<div class="ladillo">
En el 90% de los casos, los episodios duran entre uno y tres minutos</div>
El estudio pone de manifiesto que las alteraciones más comunes (que presentaban nueve de cada diez pacientes) son las referidas a la forma de los objetos. Los siguientes síntomas más frecuentes son una sensación de aceleración del tiempo y la distorsión de la imagen corporal y el miedo, que manifestaron el 40% de los pacientes.<br />
Pero ¿y los padres? Losada reconoce que su reacción "suele ser de perplejidad, sobre todo por el nombre que presenta el síndrome". Pero la reacción posterior suele ser de alivio porque, como confirma el análisis de 20 casos que acaba de publicar la revista española, esta escandalosa enfermedad neurológica es benigna y tiene una "evolución favorable". En diez días, en la mayoría de los casos, todo habrá terminado. <br />
En el 90% de los casos estudiados, los episodios duran sólo entre uno y tres minutos, aunque dos de los niños continuaron viendo imágenes distorsionadas hasta media hora después de empezar a hacerlo. Eso sí, los síntomas se repiten a lo largo de varios días, aunque suelen resolverse espontáneamente o tras iniciarse el tratamiento de enfermedades adicionales. <br />
<div class="ladillo">
Tiene una evolución favorable y suele desaparecer a los diez días</div>
El trabajo desvela precisamente que los afectados por este síndrome suelen tener características comunes. Las infecciones, sobre todo la del virus de Epstein-Barr y la migraña, estaban detrás de 17 de los 20 casos. Pero la intoxicación explicó dos de ellos: el de una niña de cuatro años, en la que se apreció un exceso de una sustancia presente en un fármaco para la tos; y el de un chaval de 15, que presentó varios episodios a lo largo de 24 horas y que había sufrido una intoxicación por cannabis. <br />
Para los autores del estudio, este trabajo podrá evitar que, en un futuro, a los niños que lleguen con estos síntomas a las urgencias pediátricas se les someta a "pruebas complementarias cruentas". Así, si estos delirios se registran en un paciente con migraña o que esté pasando un proceso infeccioso, quizás el pediatra deba de sospechar que Lewis Carroll está detrás de las visiones. </div>Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-63802524076680019912011-10-11T09:25:00.000-07:002011-10-11T09:25:38.873-07:00La controvertida experiencia de recuperar la visiónPor: <strong class="fn">Esther Samper</strong><span> </span><br />
<div class="autor vcard author">
<span>EL PAIS.com</span></div>
<span><a href="http://blogs.elpais.com/la-doctora-shora/2011/10/la-controvertida-experiencia-de-recuperar-la-vision.html#more">http://blogs.elpais.com/la-doctora-shora/2011/10/la-controvertida-experiencia-de-recuperar-la-vision.html#more</a></span><div class="autor vcard author">
<br /></div>
<div class="entry-content estirar">
<div class="entry-body estirar">
<a href="http://blogs.elpais.com/.a/6a00d8341bfb1653ef014e8c265e2b970d-pi" style="float: right;"><img alt="Persiana luz" class="asset asset-image at-xid-6a00d8341bfb1653ef014e8c265e2b970d" src="http://blogs.elpais.com/.a/6a00d8341bfb1653ef014e8c265e2b970d-320wi" style="margin: 0px 0px 5px 5px;" title="Persiana luz" /></a> Todos los días, a todas horas (incluso cuando soñamos), un mundo visual aparece ante nosotros. Sin esfuerzo, sin complicaciones. Ver a nuestro alrededor es, para la mayoría de nosotros, tan sencillo como abrir los ojos y mantenerlos así. De rutina, nos movemos ágilmente por la casa, el supermercado o la oficina con una innata e imperceptible capacidad de reconocer la profundidad y localización de los muebles. Los objetos son muy fáciles de identificar por sus colores, formas y tamaños y reconocemos a las personas por sus caras en cuestión de décimas de segundo.<br />
Todo parece tan sencillo que podríamos pensar que desde el día que nacimos empezamos a ver así. Nada más alejado de la realidad. De hecho, <strong>nacimos siendo casi ciegos</strong> y sólo cuando llegamos a los 4-5 años de edad desarrollamos todo el potencial de nuestra visión.</div>
<a href="" id="more"></a><div class="entry-more">
Por extraño que parezca, <strong>nuestra visión se asemeja, hasta cierto punto, al habla</strong>. Nacemos con la potencial capacidad para poder ver y hablar, pero necesitamos de un aprendizaje y desarrollo imprescindible durante los primeros años de la vida (cuando el cerebro muestra una gran <a href="http://es.wikipedia.org/wiki/Plasticidad_neuronal" target="_self">plasticidad neuronal</a>) para que esta capacidad pueda desarrollarse en su totalidad.<br />
Por esa razón, si la persona pasa el período crítico de sus primeros años de vida hasta la pubertad sin haber oído ni una palabra (como ocurre con los raros casos de <a href="http://es.wikipedia.org/wiki/Ni%C3%B1o_salvaje" target="_self">niños ferales</a>), lo más probable es que no conseguirá hablar en toda su vida. En el caso de la visión ocurre algo similar, si el bebé/niño no ha visto nada desde su nacimiento por diversos problemas médicos, cuando sea adulto será incapaz de poseer ciertas características de la visión humana aunque se recupere su vista. Ver no es sólo una cuestión de abrir los ojos, <strong>vemos lo que vemos porque hemos desarrollado nuestro cerebro y aprendido a verlo durante nuestros más tiernos años</strong>.<br />
Hoy en día sabemos, por múltiples estudios neurocientíficos, que en la visión hay habilidades innatas y otras adquiridas. Así, por ejemplo, <strong>detectar colores y sombras</strong>, <strong>percibir el movimiento o la luz son algunos de los rasgos más innatos de la visión</strong> y no se necesita estrictamente un aprendizaje previo.<br />
Para las habilidades visuales adquiridas, por el contrario, existen una serie de períodos durante los cuales se van adquiriendo en el bebé: El enfoque de los objetos se aprende en torno a los 2 y 3 meses de edad. La percepción de la profundidad (y, por tanto, la visión en 3D) y el reconocimiento de objetos se desarrolla entre los 3 y 6 meses de vida y habilidades más complejas como reconocer caras se adquiere en torno a los 6 meses.<br />
Cada vez es menos extraño que algunos tipos de ceguera puedan solucionarse o paliarse mediante distintos tratamientos como el más convencional <a href="http://www.nlm.nih.gov/medlineplus/spanish/ency/article/003008.htm" target="_self">trasplante de córnea</a>, la más tecnológica <a href="http://www.muyinteresante.es/nueva-retina-artificial-para-ciegos-argus-ii" target="_self">retina artificial</a> o el más experimental, aunque prometedor, <a href="http://www.elmundo.es/elmundosalud/2010/06/23/biociencia/1277319366.html" target="_self">trasplante de células madre</a>.<br />
Los avances encaminados a la restauración de la vista en las personas ciegas son abrumadores y es muy probable que, dentro de un período indeterminado de tiempo, se incremente poco a poco el porcentaje de ciegos que podrían recuperar la visión. Sin duda, se trata de una excelente noticia pero no hay que olvidar el gran "pero" en todo este asunto: Para una persona que ha sido ciega desde su nacimiento o en sus primeros años y no ha visto durante décadas <strong>la experiencia de volver a ver podría resultar incómoda e, incluso, realmente dramática</strong>.<br />
Como se ha comentado anteriormente, vemos lo que vemos por el desarrollo cerebral y aprendizaje visual que hemos realizado durante nuestros primeros años. Si una persona carece de esta fase fundamental para la visión o se ha visto interrumpida por una ceguera repentina y esa ceguera persiste durante muchos años, la persona será totalmente incapaz de tener ciertas habilidades visuales, que dependerán del momento en que comenzó la ceguera y de la duración de ésta. Eso sí, poseerían las habilidades más innatas de la visión como percibir el movimiento o la luz y detectar colores y sombras.<br />
Los problemas más comunes que se presentarían ante una persona ciega desde su más tierna infancia que recuperase la vista muchos años después serían los siguientes:<br />
-<strong>Incapacidad para detectar la profundidad</strong>. Esto implica una gran dificultad para moverse guiándose sólo por la vista porque no existe la capacidad para percibir en tres dimensiones. Así, por ejemplo, si un objeto se aleja o se acerca ellos perciben que, en realidad, se está agrandando o haciendo pequeño. Esto también supone una dificultad para interaccionar con los elementos de alrededor.<br />
-<strong>Incapacidad para reconocer lo que se está viendo (<a href="http://es.wikipedia.org/wiki/Agnosia" target="_self">agnosia</a>)</strong>. Existe una gran diferencia entre ver y reconocer lo que se está viendo (mucho más que entre oír y escuchar). Para la mayoría de nosotros están tan completamente unidos que ni nos damos cuenta de la gran diferencia que hay entre ambos pero es vital. Las personas ciegas que no llegaron a desarrollar esta capacidad siendo bebés aunque recuperen la vista son incapaces de reconocer lo que ven.<br />
Además de lo anterior, también pueden tener dificultades en percibir las formas de los objetos o en enfocar la vista.<br />
-I<strong>ncapacidad para reconocer caras (<a href="http://es.wikipedia.org/wiki/Prosopagnosia" target="_self">prosopagnosia</a>)</strong>. El reconocimiento de las caras es una de las habilidades visuales más complejas y tardías en desarrollarse y las personas que no han podido desarrollar esta fase por ser ciegas al recuperar la vista son incapaces de reconocer las caras. Si la ceguera ha sido más tardía, se pueden reconocer pero encuentran especial dificultad a distinguir las caras de los hombres de las mujeres o entre diferentes personas.<br />
Debido a todo lo anterior, la recuperación de la visión puede ser algo que provoque <strong>una gran confusión</strong> a personas que han sido ciegas desde sus primeros años, como si ante ellos <strong>se abriera un mundo nuevo que rompe con todos sus "esquemas" cerebrales</strong>. Un mundo para el que no se habían adaptado ni habituado. No es de extrañar, por tanto, que entre <a href="http://en.wikipedia.org/wiki/Recovery_from_blindness" target="_self">los casos descritos en la literatura científica</a> sobre ciegos tempranos que recuperaron la visión, tras mucho tiempo, encontremos frecuentes casos de<strong> depresión e, incluso, de suicidio</strong>.<br />
Así le ocurrió al <a href="http://www.paedagogium.com/NumerosAnteriores/treinta/03.html" target="_self">famoso Virgil</a>, comentado con sumo detalle y exquisitez por el prestigioso neurólogo Oliver Sacks en su libro "Un antropólogo en Marte". Desde muy pequeño fue casi ciego por unas cataratas. Cuando le operaron a los 50 años su vida cambió repentinamente, para mal. Se encontraba constantemente frustrado y confuso ante lo que veía porque no era capaz de reconocerlo y no tardó en entrar en una profunda depresión. Algo similar le ocurrió a <a href="http://en.wikipedia.org/wiki/Sidney_Bradford" target="_self"><strong>Sidney Bradford</strong></a>, ciego de larga duración que recuperó la vista tras un trasplante de córneas. La operación, lejos de mejorar su vida, la empeoró drásticamente: fue incapaz de trabajar con su nuevo sentido y, a los dos años, se suicidó. Por extraño que resulte, <strong>recuperar la visión puede no ser, a veces, una buena idea</strong>.<br />
<br />
Para saber más:<br />
<a href="http://vision.about.com/od/childrensvision/tp/vision_develop.htm" target="_self">5 hitos en el desarrollo de la visión</a><br />
<a href="http://everything2.com/user/Chris+Hook/writeups/vision" target="_self">Neurología de la visión</a></div>
</div>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-38056717045188239672011-08-01T00:18:00.000-07:002011-08-01T00:23:46.538-07:00El ojo, una máquina 'tuneable'<h3>Los laboratorios preparan una nueva generación de técnicas para decir adiós a las gafas - Todas las correcciones visuales serán pronto reversibles </h3><div class="firma">Malen Ruíz de Elvira <em>- Benasque - </em>29/06/2011 <br />
EL PAÍS.com<br />
<a href="http://www.elpais.com/articulo/futuro/ojo/maquina/tuneable/elpepusocfut/20110629elpepifut_1/Tes">enlace</a></div><div class="contenido_noticia"><table cellpadding="0" cellspacing="0" class="tr-caption-container" style="float: right;"><tbody>
<tr><td style="text-align: center;"><a href="http://www.elpais.com/recorte/20110629elpepifut_1/LCO340/Ies/Imagen_retina_humana.jpg" imageanchor="1" style="clear: right; margin-bottom: 1em; margin-left: auto; margin-right: auto;"><img alt="Imagen de la retina humana" border="0" height="200" src="http://www.elpais.com/recorte/20110629elpepifut_1/LCO340/Ies/Imagen_retina_humana.jpg" title="Imagen de la retina humana" width="200" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;"><em>Imagen de la retina humana obtenida </em><br />
<em>por microscopía no lineal.<span class="agencia">- P. ARTAL</span></em></td></tr>
</tbody></table>Si el ojo humano es una máquina, aunque sea casi perfecta, puede tratarse como tal y se ha demostrado ya que su manipulación es posible, no hay más que recordar las técnicas para eliminar o reducir la miopía o las ya ubicuas operaciones de cataratas, en las que se reemplaza el cristalino por una lente artificial. Ahora llega la siguiente oleada de la ingeniería<i> </i>del ojo, de la mano de la física, con el objetivo no solo de prescindir para siempre de muletas externas, como gafas y lentillas, sino también de conocer mucho mejor este órgano y el origen y desarrollo de sus patologías, que pueden terminar siendo tratadas de forma mínimamente invasiva. El ojo se puede <i>tunear.</i><br />
Esta nueva aproximación en los laboratorios a la óptica de visión viene de la mano de herramientas potentes, especialmente el láser de femtosegundos, de pulsos ultracortos, que permite obtener imágenes del interior del ojo (como la retina) sin afectar a las zonas intermedias. Dos fotones se combinan gracias a la intensa luz del láser para formar otro con el doble de energía y el doble de frecuencia. Se produce así una excitación muy localizada de moléculas que tiene la ventaja de proporcionar imágenes fluorescentes en tres dimensiones con alta resolución.<br />
En el ojo la ventaja es que la fluorescencia es natural, por lo que no hay que utilizar marcadores, lo que resultaría imposible en vivo, explica Pablo Artal, coorganizador del <a href="http://lo.um.es/main/optica_e.html" target="_blank">congreso <i>Engineering the Eye</i>,</a> que se celebró recientemente en <a href="http://benasque.org/" target="_blank">Benasque (Huesca).</a> Sin embargo, hace falta enviar mucha luz y se obtiene muy poca de vuelta, lo que hace que sea necesario procesar las imágenes obtenidas y también dificulta su utilización en vivo, especialmente en la retina.<br />
A pesar de ello, se suceden los experimentos, porque hay mucho interés y dinero disponible por las perspectivas de uso comercial. "Las gafas son una tecnología de hace muchos siglos. Todas las correcciones visuales se harán pronto con estas técnicas, serán reversibles y con gran seguridad", asegura Artal. "Se trata de mantener lo biológico, pero con las características deseadas", añade.<br />
Un aspecto que necesita desarrollarse más es la seguridad del uso de este láser, de pulsos muy cortos pero intensos, en las personas. Se están estableciendo niveles y recomendaciones de seguridad que tienen que ser validados con la experiencia antes de que se pueda pensar en una aplicación masiva de estas técnicas.<br />
Una forma de minimizar el daño la proporcionan las técnicas de óptica adaptativa, procedentes de la astronomía, que, al contrarrestar la deformación de la luz cuando atraviesa el ojo, permiten reducir la intensidad de los pulsos. El láser y la óptica adaptativa son la pareja indispensable. En conjunto permiten escrutar los detalles celulares de las diferentes capas de la retina -hasta llegar a las conocidas células especializadas llamadas conos y bastones sin las cuales no veríamos-.<br />
El uruguayo Alfredo Dubra, de la <a href="http://www.cvs.rochester.edu/dubralab/" target="_blank">Universidad de Rochester (EE UU),</a> dirige el equipo que ha conseguido obtener las primeras imágenes en vivo de bastones, con el objetivo de que sirvan, en el futuro, para un diagnóstico precoz de patologías en la retina. "Aunque los tratamientos no están todavía, la posibilidad de ver las células que se quieren rescatar representa un primer paso básico en el proceso de restaurar la visión", explica. Con óptica adaptativa, Dubra ha logrado alcanzar la resolución de dos micras, el diámetro de un bastón. Su colega Jennifer Hunter, por su parte, en muestras de tejidos ha logrado ver las mitocondrias (órgano celular) y afirma. "Podemos excitar moléculas inaccesibles por otros métodos".<br />
También se puede estudiar en detalle el colágeno, el principal componente estructural del ojo, en la córnea. Esto es algo fundamental, según James Jester, de la Universidad de California (EE UU), ya que la biomecánica juega un papel importante en la génesis de muchas enfermedades del ojo. Las imágenes obtenidas permiten ver fácilmente las estructuras patológicas, y se está cerca de utilizar esta técnica para detectar las bacterias en la córnea infectada, comentó Jester en el congreso. En el futuro, se vislumbra la ingeniería de tejidos aplicada a la córnea.<br />
La microscopia con láser de femtosegundos, en el infrarrojo cercano, se ve como la próxima generación en los oftalmoscopios, ahora imprescindibles en toda consulta. El más utilizado, basado en la tomografía de coherencia óptica (OCT), surgió hace solo 20 años.<br />
<div class="caja_despiece"><h3>Las muchas ventajas del nuevo láser</h3><br />
"Dentro de cinco a diez años, toda la cirugía de la parte anterior del ojo se hará con luz, con láseres de femtosegundos", señala Pablo Artal, catedrático de la Universidad de Murcia. Wayne Know, de la Universidad de Rochester (EE UU), comenta cómo se podrá modificar el índice de refracción en tejidos vivos transparentes, como la córnea y el cristalino, de forma no destructiva y todas las veces que haga falta.<br />
El <a href="http://www.lensxlasers.com/" target="_blank">láser de femtosegundos</a> (en forma de carísima máquina) se utiliza ya para operaciones de córnea y experimentalmente en cataratas, y presenta muchas ventajas, según Ron Kruger, de la Cleveland Clinic (EE UU). Se puede ver a través de las cataratas más densas y su altísima precisión en el corte de la córnea y la cápsula del cristalino, lo convierte en una técnica más segura. Ya se están haciendo ensayos clínicos para la corrección de la presbicia (vista cansada) en pacientes que, de todas formas, se van a operar de cataratas. Los ensayos se han hecho en México y en Filipinas y no han sido todo lo positivo que se esperaba, se supone que porque no se alcanza bien el centro de la lente.<br />
Un país pionero es Hungría, donde la operación con este láser en 48 casos ha mostrado mejoras en las aberraciones ópticas finales respecto al método actual de corte, según explica Illes Kovacs, de la Universidad Semmelweis.<br />
También se estudia convertir las lentes intraoculares poliméricas de las operaciones de cataratas en dispositivos activos manipulables a distancia con luz, lo que abre una nueva era para tratamientos, según Norbert Hampp, de la Universidad de Marburgo (Alemania).<br />
Hay varias aplicaciones posibles: la corrección del índice de refracción obtenido tras la operación para llegar al valor ideal, el tratamiento de cataratas secundarias y también la emisión de medicamentos por la lente en caso de necesidad. "No es fácil, pero es posible", señala Hampp, que trabaja, por el momento, en modelos animales.</div></div>Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-60402110319713459002011-06-16T03:40:00.000-07:002011-06-20T09:31:48.085-07:00Cómo el cerebro aprende a ver<table cellpadding="0" cellspacing="0" class="tr-caption-container" style="float: right;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjgFkAg6X-mTlG1MYbG-aDK-lpsg9Ogaxfm8QxlP4SQ_kFaGN2-8X3xZhciZiVwEKd3ZbfjpurNXWfavZiqLG2oEQrayMxjwIXICnLCArh8qVTHXHBo8IyonqN4jnHspC14rxg06o18bXk/s1600/Pawan+Sinha.png" imageanchor="1" style="clear: right; margin-bottom: 1em; margin-left: auto; margin-right: auto;"><img border="0" height="181" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjgFkAg6X-mTlG1MYbG-aDK-lpsg9Ogaxfm8QxlP4SQ_kFaGN2-8X3xZhciZiVwEKd3ZbfjpurNXWfavZiqLG2oEQrayMxjwIXICnLCArh8qVTHXHBo8IyonqN4jnHspC14rxg06o18bXk/s200/Pawan+Sinha.png" width="200" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;"><i>Pawan Sinha</i></td></tr>
</tbody></table>Pawan Sinha detalla su innovadora investigación sobre el desarrollo del sistema visual en el cerebro. Sinha y su equipo proporcionan gratuitamente tratamiento para la recuperación de la vista a niños ciegos de nacimiento, para luego estudiar cómo el cerebro aprende a interpretar la información visual. La investigación arroja claridad sobre la neurología, su funcionamiento e incluso sobre el autismo.<br />
<br />
<a href="http://www.ted.com/talks/pawan_sinha_on_how_brains_learn_to_see.html">http://www.ted.com/talks/pawan_sinha_on_how_brains_learn_to_see.html</a>Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-59766991773461198692011-06-14T03:27:00.000-07:002011-06-20T09:31:34.849-07:00Gero Miesenboeck rediseña un cerebro<br />
<table cellpadding="0" cellspacing="0" class="tr-caption-container" style="clear: right; float: right; margin-bottom: 1em; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi4fnNLZnHO3vuMQfo_G6Ok4xtnXQDIOe-DZBvnxNKWIE5YBIRzWxBhmqUC_7U8QR2SAFi3sWgeixUKRuPNVmCbTSgQkFB9SptpBuM29VKDO-9eJbX_F1_MuZcINdJlXTGNr7kVw3Wn0_g/s1600/Gero+Miesenboeck.png" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="174" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi4fnNLZnHO3vuMQfo_G6Ok4xtnXQDIOe-DZBvnxNKWIE5YBIRzWxBhmqUC_7U8QR2SAFi3sWgeixUKRuPNVmCbTSgQkFB9SptpBuM29VKDO-9eJbX_F1_MuZcINdJlXTGNr7kVw3Wn0_g/s200/Gero+Miesenboeck.png" width="200" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;"><i>Gero Miesenboeck</i> </td></tr>
</tbody></table>En la búsqueda de trazar un mapa del cerebro muchos científicos han intentado la tarea sumamente amedrentadora de grabar la actividad de cada neurona. Gero Miesenboeck trabaja al revés, manipulando neuronas específicas para descubrir exactamente cómo funcionan mediante una serie de experimentos imponentes que rediseñan la forma en que las moscas de la fruta perciben la luz.<br />
<br />
<br />
<a href="http://www.ted.com/talks/gero_miesenboeck.html">http://www.ted.com/talks/gero_miesenboeck.html</a>Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-34681792823872179132011-06-12T03:17:00.000-07:002011-06-20T09:31:20.060-07:00Un interruptor de luz para neuronas<div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgPJLFuBO4PKqDDxENsCiizz_fMwga56IJtugufC1p0XlVzrIjREzfU5aPi0b9bR1kjE0uiLhR9VF-dZHsI58duabPyES8bVeF85Pj02hr3kvQ9uueOxRxaVomiHS0Jf2otJAFKw7TVWsQ/s1600/redes+neuronales.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="272" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgPJLFuBO4PKqDDxENsCiizz_fMwga56IJtugufC1p0XlVzrIjREzfU5aPi0b9bR1kjE0uiLhR9VF-dZHsI58duabPyES8bVeF85Pj02hr3kvQ9uueOxRxaVomiHS0Jf2otJAFKw7TVWsQ/s640/redes+neuronales.jpg" width="640" /></a></div><br />
<br />
Ed Boyden muestra cómo, mediante la inserción de genes de proteínas fotosensibles en células cerebrales, puede activar o desactivar selectivamente neuronas específicas con implantes de fibra óptica. Con este nivel de control sin precedentes ha logrado curar ratones con trastornos similares al estrés postraumático y ciertas formas de ceguera. En el horizonte: prótesis neuronales. El moderador de segmento Juan Enríquez hace un mini-debate al final.<br />
<br />
<div style="text-align: left;"><a href="http://www.ted.com/talks/ed_boyden.html">http://www.ted.com/talks/ed_boyden.html</a></div>Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-82960313561466533632011-06-10T03:10:00.000-07:002011-06-20T09:31:01.234-07:00El misterio del dolor crónico<table cellpadding="0" cellspacing="0" class="tr-caption-container" style="float: right;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjREEROxe0EUmah89-5Vtg-wM4V9U2KTLSGJHbz_G1IivgHR6ERSg1FNeXngSX-PzlGxs1yOLLvf_cWSFwvw5CXaJD7Mqqz6fK2dW_IXZnuaSA-mnAKb8g5TYyr_4-DbXB2sbzxOiuwr5s/s1600/Krane.jpg" imageanchor="1" style="clear: right; margin-bottom: 1em; margin-left: auto; margin-right: auto;"><img border="0" height="189" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjREEROxe0EUmah89-5Vtg-wM4V9U2KTLSGJHbz_G1IivgHR6ERSg1FNeXngSX-PzlGxs1yOLLvf_cWSFwvw5CXaJD7Mqqz6fK2dW_IXZnuaSA-mnAKb8g5TYyr_4-DbXB2sbzxOiuwr5s/s200/Krane.jpg" width="200" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;"><i>Elliot Krane</i></td></tr>
</tbody></table>Pensamos en el dolor como un síntoma, pero hay casos en que el sistema nervioso desarrolla ciclos de retroalimentación y dolor que se convierten en una terrible enfermedad por sí misma. A partir de la historia de una joven cuyo esguince en la muñeca se convirtió en una pesadilla, Elliot Krane habla sobre el complejo misterio del dolor crónico y analiza los hechos que apenas estamos aprendiendo acerca de su funcionamiento y tratamiento.<br />
<br />
<a href="http://www.ted.com/talks/elliot_krane_the_mystery_of_chronic_pain.html">http://www.ted.com/talks/elliot_krane_the_mystery_of_chronic_pain.html</a>Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-33052034905315632952011-03-28T03:15:00.000-07:002011-06-20T02:59:15.287-07:00Nuevas técnicas para desvelar cómo funciona el cerebro<div class="cabecera_noticia"><h3>La reconstrucción del órgano está todavía lejana, 100 años después de Cajal </h3><div class="firma" style="font-family: inherit;"><span style="font-size: small;"><b>MALEN RUIZ DE ELVIRA</b> <i>- Madrid - </i>08/12/2010</span><br />
<span style="font-size: small;">EL PAÍS.com </span></div></div><div class="contenido_noticia" style="font-family: inherit;"><table cellpadding="0" cellspacing="0" class="tr-caption-container" style="float: right; margin-left: 1em; text-align: right;"><tbody>
<tr><td style="text-align: center;"><span style="font-size: small;"><a href="http://www.elpais.com/recorte/20101208elpepifut_1/LCO340/Ies/Neuronas_raton.jpg" style="clear: right; margin-bottom: 1em; margin-left: auto; margin-right: auto;"><img border="0" height="320" src="http://www.elpais.com/recorte/20101208elpepifut_1/LCO340/Ies/Neuronas_raton.jpg" width="214" /></a></span></td></tr>
<tr><td class="tr-caption" style="text-align: center;"><span style="font-size: small;">Neuronas de ratón que expresan proteínas fluorescentes.</span><span class="agencia" style="font-size: small;">- EFE</span></td></tr>
</tbody></table><div style="text-align: justify;"><span style="font-size: small;"><br />
</span></div><div style="text-align: justify;"><span style="font-size: small;">Aunque mucho se ha avanzado desde que Cajal elaborara hace más de un siglo su hipótesis sobre cómo se conectan las neuronas, uno de los principales retos de la neurociencia sigue siendo conocer el diseño estructural de los microcircuitos cerebrales y cómo estos circuitos contribuyen al funcionamiento del cerebro.</span></div><div></div><div style="text-align: justify;"><span style="font-size: small;">Aunque mucho se ha avanzado desde que Cajal elaborara hace más de un siglo su hipótesis sobre cómo se conectan las neuronas, uno de los principales retos de la neurociencia sigue siendo conocer el diseño estructural de los microcircuitos cerebrales y cómo estos circuitos contribuyen al funcionamiento del cerebro. La tarea es tan grande y compleja que puede llevar al pesimismo. Sin embargo, el especialista español Javier de Felipe se muestra optimista en el ensayo que ha publicado en <i>Science</i> sobre qué se puede hacer en el estudio del cerebro humano y su optimismo se basa en las nuevas herramientas disponibles, incluidos los análisis estructurales y computacionales.</span></div><div style="text-align: justify;"><span style="font-size: small;">El objetivo es relacionar el conocimiento a tres escalas diferentes: con el <i>conectoma</i>, que representa las conexiones macroscópicas e intermedias del cerebro, y el <i>sinaptoma,</i> las conexiones microscópicas entre sinapsis (las zonas por las que se comunican las neuronas). Los diagramas de circuito del sistema nervioso son imposibles de completar sinapsis a sinapsis, reconoce De Felipe, pero los avances en la capacidad para relacionar los datos macroscópicos y microscópicos pueden llevar a establecer un modelo estadístico realista para describir la conectividad en el nivel del sinaptoma, en vez de intentar la reconstrucción completa del cerebro, algo que todavía está muy lejano.</span></div><div style="text-align: justify;"><span style="font-size: small;">La resonancia magnética nuclear, para estudios incluso en vivo, la microscopía óptica y la microscopía electrónica son, respectivamente, las herramientas de base para estudiar el cerebro en cada nivel de detalle, pero se están añadiendo continuamente otras. Entre ellas están los ratones arco iris, genéticamente modificados para expresar proteínas fluorescentes en conjuntos de células nerviosas, Además, se automatiza la reconstrucción en tres dimensiones de volúmenes grandes a partir de secciones ultrafinas cerebrales, con técnicas que se conocen por sus siglas (FIB-SEM), y que se acompañan de otras para marcar las neuronas individuales. En el estudio específico de tejidos humanos, procedentes de biopsias y autopsias, los avances técnicos son también muy importantes.</span></div><div style="text-align: justify;"><span style="font-size: small;">Las dificultades son tantas, a pesar de todo, que se han hecho necesarios grandes proyectos de investigación, como el Proyecto Conectoma Humano y el Blue Brain, en el que participa desde 2009 el <a href="http://cajalbbp.cesvima.upm.es/" target="_blank">Laboratorio de Circuitos Corticales (Universidad Politécnica de Madrid-CSIC)</a> que dirige De Felipe. El objetivo final, según este experto, sería un modelo del cerebro, especialmente de la corteza, donde residen las funciones típicamente humanas y que representa el 85% del volumen total.</span></div><div style="text-align: justify;"><span style="font-size: small;">"¿Qué misteriosas fuerzas presiden la aparición de las expansiones, promueven su crecimiento y ramificación, provocan la emigración congruente de células y fibras, según direcciones prefijadas y como obedeciendo a sabio plan arquitectónico, y establecen, en fin, esos ósculos protoplásmicos, las articulaciones intercelulares, que parecen constituir el éxtasis final de una épica historia de amor?" Así se expresaba Cajal en <i>Recuerdos de mi vida</i>, publicado en 1917 y a esta historia de amor se refiere De Felipe, para el cual un final adecuado sería la construcción de una corteza en silicio -una corteza cerebral artificial en un ordenador- que considera ya posible.</span></div><div style="text-align: justify;"><span style="font-size: small;">Una pregunta sugerente es si llegaría a pensar esta corteza cerebral. De Felipe recuerda: "Para un materialista, los procesos mentales tendrían simplemente una explicación física y el problema cuerpo-mente lo enunciaría preguntándose: ¿Cómo lo físico puede engendrar un proceso mental o cómo lo mental puede ser explicado por un fenómeno físico? Para un dualista no existiría tal problema, porque la materia y el espíritu serían dos entidades absolutamente independientes, o, utilizando términos más modernos, los procesos mentales se manifestarían a través del cerebro, pero éste no sería la causa", y añade: "Quizá, una de las principales contribuciones de la neurociencia actual ha sido abordar el tema de los procesos mentales desde un punto de vista biológico, pero es llamativo el poco arraigo popular e influencia en la sociedad del conocimiento neurocientífico: debido a la poca cavilación sobre la relación entre el cerebro y nuestra humanidad es frecuente encontrarnos con la dificultad de aceptar la naturaleza neural de los procesos mentales, incluso dentro de la comunidad científica".</span></div><div style="text-align: justify;"><span style="font-size: small;">A eso se refiere el comentario que sobre el artículo en <i>Science</i> le ha mandado su colega Matthew Kirkcaldie, de la Universidad de Tasmania: "Me encantaría ver una corteza de silicio, pero tengo una creencia profunda e irracional en que hay algo en las neuronas que no podemos capturar con la morfología y la electrofisiología".</span></div></div>Unknownnoreply@blogger.comtag:blogger.com,1999:blog-686764239046111471.post-69168516800596340402011-02-25T00:38:00.000-08:002011-02-25T00:39:56.256-08:00¿Percibes los sabores de manera más intensa? Quizás eres una supertaster<div class="datos estirar"><br />
Escrito por <a class="url fn" href="http://lacomunidad.elpais.com/usuarios/pestupinya">Pere Estupinya</a><br />
<div class="der"><b>24 Feb 2011</b> - <a href="http://lacomunidad.elpais.com/apuntes-cientificos-desde-el-mit/2011/2/25/-percibes-sabores-manera-mas-intensa-quizas-eres-una" title="ver blog">Enlace</a></div></div><div class="MsoNormal" style="font-family: inherit;">EL PAÍS.com<br />
<br />
<span style="font-size: small;">¿Prefieres la cerveza suave a la amarga? ¿sufres más que tus amigos si te toca el pimiento picante? ¿aprecias mejor los aromas sutiles en un buen vino; y toleras menos uno con demasiada acidez? ¿prefieres la ensalada sin salsas que potencien en exceso su sabor? ¿te molestan los postres excesivamente dulces y empalagosos?... ¡Puedes ser un “<i>supertaster</i><span style="font-style: normal;">”! Es decir; estar entre el aproximadamente 20% de personas que tienen más papilas gustativas en su lengua y experimentan más intensidad en los sabores. Para lo bueno, y para lo malo.</span></span></div><div class="separator" style="clear: both; font-family: inherit; text-align: center;"><span style="font-size: small;"><a href="http://lacomunidad.elpais.com/blogfiles/apuntes-cientificos-desde-el-mit/443335_lenguas.jpg" imageanchor="1" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;"><img border="0" class="imgdcha" height="145" id="img_3" src="http://lacomunidad.elpais.com/blogfiles/apuntes-cientificos-desde-el-mit/443335_lenguas.jpg" width="375" /></a></span></div><div style="font-family: inherit;"><span style="font-size: small;">Fíjate en estas dos lenguas teñidas de azul (sí; son dos lenguas). Cómo podéis observar, la de la izquierda tiene muchos menos bulbos blanquecinos que la de la derecha. Esta de la derecha corresponde a un <i>supertaster</i><span style="font-style: normal;">; alguien que disfruta más con ciertos sabores que a otros les parecen insípidos, y que siente aversión por los que resultan demasiado intensos.</span></span></div><div style="font-family: inherit;"><span style="font-size: small;">Pero no sólo eso. Según los estudios que presentó durante la reunión anual de la AAAS en Washington DC <a href="http://www.mbi.ufl.edu/%7Eufcst/leadership.html">Linda Bartoshuk</a> (<i>investigadora de la Universidad de Florida y creadora del concepto supertaster</i>), esta percepción del sabor tiene origen genético, afectaría al tipo de alimentos consumidos, y podría estar asociada a diferente riesgo cardiovascular y prevalencia de cáncer de colon.</span></div><div class="MsoNormal" style="font-family: inherit;"></div><div class="MsoNormal" style="font-family: inherit;"><span style="font-size: small;"><a href="http://lacomunidad.elpais.com/blogfiles/apuntes-cientificos-desde-el-mit/bartoshuk2.jpg" imageanchor="1" style="clear: right; float: right; margin-bottom: 1em; margin-left: 1em;"><img border="0" class="imgizqda" id="img_0" src="http://lacomunidad.elpais.com/blogfiles/apuntes-cientificos-desde-el-mit/bartoshuk2.jpg" style="height: 159px; width: 244px;" /></a><b>Amargo</b><span style="font-weight: normal;"> es la gran diferencia. La prueba más utilizada para diferenciar individuos supertasters, medium-tasters y non-tasters, es poner encima de tu lengua un papel impregnado con una sustancia química llamada propylthiuracil (PROP). Si su amargura te genera repulsión inmediata, eres un supertaster. Si notas el amargo pero lo toleras bien, serás un medium-taster (lo más habitual entre la población). Y si prácticamente no percibes nada peculiar; un non-taster. Dicho de otra manera: si te gusta el zumo de naranja pero el de pomelo te parece excesivamente amargo, o evitas vegetales como el brócoli o la berenjena, o prefieres las cervezas suaves a las amargas, puedes ser un supertaster. Tíñete la lengua para comprobarlo. O analiza tu ADN. Según varios <a href="http://www.ncbi.nlm.nih.gov/pubmed/21163912">estudios realizados por el grupo de la Dra. Bartoshuk</a>, hay diferentes variantes de los genes TAS2R asociados a la percepción del sabor amargo. </span></span></div><div class="MsoNormal" style="font-family: inherit;"></div><div class="MsoNormal" style="font-family: inherit;"><span style="font-size: small;">Respecto al <b>picante</b><span style="font-weight: normal;">; las papilas gustativas están rodeadas de fibras implicadas en la sensación de quemazón. Por tanto, a los supertasters -con mayor número de bulbos gustativos- el chile, el curry o los pimientos del padrón picantes, les irritan mucho más. Se ha observado que suelen frecuentar en menor grado cierto tipo de restaurantes, como los indios.</span></span></div><div class="MsoNormal" style="font-family: inherit;"></div><div class="MsoNormal" style="font-family: inherit;"><span style="font-size: small;">También parece que los supertasters son más sensibles a las texturas <b>grasas</b><span style="font-weight: normal;">, y como consecuencia, necesitan menos cantidad para experimentar esa sensación placentera de suavidad que nos generan. Los supertasters echan menos aceites y salsas a las ensaladas, y en general siguen dietas con menos ingesta de grasas.</span></span></div><div class="MsoNormal" style="font-family: inherit;"></div><div class="MsoNormal" style="font-family: inherit;"><span style="font-size: small;">El <b>sabor</b><span style="font-weight: normal;"> es una combinación de lo percibido por las papilas gustativas y los aromas que llegan por la respiración retronasal. Bartoshuk reconoce que la satisfacción final ante un alimento va mucho más allá de las moléculas que reciben los bulbos gustativos, y que factores como la educación, cultura, entrenamiento, fumar, o edad influyen sobremanera. Por eso insiste en que ella habla sólo de diferencia en intensidad, y utiliza la siguiente analogía: “<i>los supertasters experimentan la comida con luces de neón, y los non-tasters con pocas papilas gustativas en tonos pastel</i></span>”. En las encuestas que ha realizado con diferentes tipos de alimentos, constata que entre los supertasters hay muchas más valoraciones en los extremos del “me gusta mucho” y el “no me gusta nada”. Eso tiene consecuencias. Por ejemplo, se ha visto que entre los chefs hay más supertasters que entre el resto de población, ya que son capaces de apreciar mejor las sutilizas y detectar los sabores ligeramente molestos. </span></div><div class="MsoNormal" style="font-family: inherit;"><span style="font-size: small;"><a href="http://lacomunidad.elpais.com/blogfiles/apuntes-cientificos-desde-el-mit/443337_estupinyabartoshuk.jpg" imageanchor="1" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;"><img border="0" class="imgdcha" height="324" id="img_5" src="http://lacomunidad.elpais.com/blogfiles/apuntes-cientificos-desde-el-mit/443337_estupinyabartoshuk.jpg" width="227" /></a>Por otra parte, ser un supertaster no es ninguna bendición. Para los supertasters la comida es más sabrosa que para los non-tasters, pero también más irritante. Cierto que puedes apreciar una deliciosa combinación de sabores sofisticados, pero te disgustará más un vino mediocre o platos de sabor demasiado intenso. Se ha observado que los supertasters son más caprichosos con la comida, y más reticentes a probar una amplia variedad de estilos culinarios.</span></div><div class="MsoNormal" style="font-family: inherit;"></div><div class="MsoNormal" style="font-family: inherit;"><span style="font-size: small;">Bartoshuk <a href="http://www.ncbi.nlm.nih.gov/pubmed/10944509">empezó sus trabajos</a> mostrando diferencias considerables en el sentido del gusto hace unos 10 años. Desde entonces, en unos estudios que debemos tomar más como hipótesis que verdades corroboradas, dice haber encontrado vinculación entre la diversidad en el sentido del gusto y el consumo de alcohol, cáncer de colon, de cuello, y riesgo cardiovascular. La <a href="http://www.aaas.org/news/releases/2003/0214diet.shtml">relación</a> parece obvia: diferentes preferencias en comida implican diferentes tipos de dieta. Y por tanto, diferente salud: Los supertasters ingieren menos azúcares y grasas y sufren -de media- <a href="http://www.ncbi.nlm.nih.gov/pubmed/16815797">menor obesidad</a> y riesgo cardiovascular. También <a href="http://www.ncbi.nlm.nih.gov/pubmed/15547448">beben menos alcohol</a> porque les irrita más. Esto, junto con que fuman menos, les disminuye el riesgo de cáncer de cuello y cabeza. En cambio, debido a que comen menos vegetales porque les molesta su sabor amargo, suelen padecer <a href="http://www.ncbi.nlm.nih.gov/pubmed/15810630">más cáncer de colon</a>. Todas estas relaciones están publicadas en revistas científicas de referencia. Pero como indicios interesantes a tener en cuenta; no como certezas fuera de discusión.</span></div><div class="MsoNormal" style="font-family: inherit;"><span style="font-size: small;"> </span></div><div class="MsoNormal" style="font-family: inherit;"><span style="font-size: small;"><a href="http://lacomunidad.elpais.com/blogfiles/apuntes-cientificos-desde-el-mit/Imagen2.png" imageanchor="1" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;"><img border="0" class="imgizqda" height="167" id="img_6" src="http://lacomunidad.elpais.com/blogfiles/apuntes-cientificos-desde-el-mit/Imagen2.png" width="229" /></a>Bartoshuk despidió su abarrotada conferencia en la AAAS explicando el proyecto que está realizando con 53 variedades de tomate; cuyo objetivo es averiguar el sabor perfecto y así intentar incrementar el consumo de vegetales entre la población estadounidense. Puede ser útil. Quien sabe.</span></div><div style="font-family: inherit;"><span style="font-size: small;">De momento, curioso como conversación de fin de semana sí lo resulta.</span></div>Unknownnoreply@blogger.com