Página editada por Antonio L. Manzanero, profesor de la Facultad de Psicología de la Universidad Complutense de Madrid. España


 

 


Facultad de Psicología
Campus de Somosaguas
28223 - POZUELO DE ALARCÓN (MADRID)
Accesos: Metro Ligero (Campus de Somosaguas)  Autobuses: A,H,I

¿Cómo sabe una máquina que sonríes? Reconocimiento facial para principiantes

Los inimitables patrones de tu rostro podrán servir hasta para sacar dinero de un cajero automático. Los sistemas de reconocimiento facial están invadiendo eventos, tiendas e incluso iglesias mientras Facebook quiere identificarte incluso cuando no ve tu cara. Pero, ¿cómo sabe quién eres o cómo te sientes un ordenador?

 eldiario.es
enlace
 
Google y Facebook lideran los avances en reconocimiento facial
Google y Facebook lideran los avances en reconocimiento facial
              

Tu nariz aguileña o chata, tus ojos almendrados o saltones o la propia forma de tu rostro, ovalado o alargado, pueden decir mucho sobre ti a la cámara que en estos momentos tienes enfrente. Windows 10 se ha aprovechado de ello y permite iniciar sesión gracias a su sistema de reconocimiento facial si nuestro ordenador incorpora una cámara Real Sense 3D. No es la única compañía que cree que la biometría de nuestras jetas es el presente y el futuro: Apple ya ha patentado su sistema para que desbloqueemos nuestro teléfono a ritmo de 'selfie'.
Mientras, en todo el mundo comenzamos a observar curiosas (e invasivas) aplicaciones de este reconocimiento: la policía de Reino Unido escaneó los rostros de los asistentes a un festival de música para detectar bandas de crimen organizado sin el permiso de los asistentes, treinta iglesias de todo el mundo utilizan el sistema Churchix para identificar el espejo del alma de los feligreses y en China ya se ha presentado el primer cajero automático que solo nos entrega el dinero si le suena nuestra cara. ¿En qué se fija una máquina para desvelar tu identidad? 
Página web de la empresa Face-Six que ofrece reconocimiento facial en eventos
Página web de la empresa Face-Six, que ofrece reconocimiento facial para eventos

ASÍ SABE UNA MÁQUINA QUIÉN ERES

Cada 'software' de reconocimiento facial esconde sus propios secretos, si bien hay una serie de pasos que casi todos siguen, ya sea para identificar sospechosos en los aeropuertos o para que la empresa Face-Six proporcione a los templos información sobre los buenos cristianos.
En primer lugar, el sistema tiene obviamente que detectar que somos un ser humano, rastreando los píxeles de la imagen. "Hay algoritmos que, a partir de un conjunto de imágenes que son caras y otro conjunto que no son caras, son capaces de aprender automáticamente a encontrar una cara en una imagen", nos cuenta Pedro Tomé, investigador del Grupo de Reconocimiento Biométrico de la Universidad Autónoma de Madrid.
 

La detección de las caras es el primer paso
La detección de las caras es el primer paso

  
 Después, llega la fase de alineación: se determina la posición o el tamaño de la cabeza para poder normalizarla. Habitualmente, la cara se alinea detectando dos puntos característicos, como pueden ser la posición de los ojos, aunque los más sofisticados métodos estiman también la inclinación de la cabeza o la iluminación. Cuando los rostros están alineados, el sistema procede rápidamente a extraer las características con las que puede reconocer quiénes somos.  
Según nos explica Enrique Cabello, investigador principal del Grupo de Reconocimiento Facial & Visión Artificial, algunos 'software' se fijan en las características globales de nuestra cara, como la forma (si es más o menos alargada o más o menos redonda) o la configuración general de nuestro rostro (si tenemos una frente muy hundida o unas cejas muy salientes). "Estos sistemas no se fijan en puntos concretos de la cara, sino que toman la fotografía e intentan compararla con la anterior", nos cuenta este experto, que asemeja el sistema con una "lupa" buscando diferencias en nuestro rostro.
Los primeros sistemas de reconocimiento facial comparaban las dos imágenes "en bruto", píxel a píxel, una labor demasiado costosa y poco efectiva, por lo que actualmente nuestra cara se transforma en vectores para reducir la dimensionalidad y extraer la información discriminante de las caras.
 

El sistema de reconocimiento también puede trazar los puntos faciales de referencia
El sistema de reconocimiento puede trazar los puntos faciales para estudiar las diferentes zonas de la cara

  
 Otro tipo de sistemas de reconocimiento analizan características locales. "Lo normal es que detecte los ojos, la nariz y la boca, y a partir de ahí calculas el resto de puntos de la cara", explica Cabello. Detectar la T que forman nuestros ojos y nuestra nariz, una tarea relativamente fácil para un sistema, sirve tanto para alinear nuestra cara previamente como para analizar el resto de puntos interesantes y medir las distancias, consiguiendo extraer las características geométricas de nuestros rostros.
"A un nivel más alto, los sistemas intentan sacar similitudes, como la distancia entre puntos característicos de la cara, la medida de tu ojo o la distancia del ojo a la nariz", señala Tomé.
Utilizar un modelo 3D de nuestra cara es otra de las alternativas, aunque hay dos opciones distintas: crear un modelo tridimensional de la cabeza del sujeto utilizando varias cámaras o fotografiarle directamente con una cámara 3D. La profundidad permite así mejorar la comparación posterior de las imágenes.
 

Tomé y Cabello coinciden en que los programas tradicionales combinan diferentes tipos de métodos para extraer tanto características globales como locales, y el color o la iluminación de la escena también se tienen en cuenta. No hay un número específico de datos que se deban extraer para conocer tu fisonomía, aunque Cabello puntualiza que con unos cuantos miles, una máquina ya debería ser capaz de  reconocernos.
Una vez extraídas las características o patrones de nuestra cara, el sistema de clasificación (un algoritmo previamente entrenado) busca similitudes con las fotografías de su base de datos. "Cuanto más complicado es el escenario, el rendimiento de los sistemas tiende a bajar", explicaTomé.
"Si me venden un reconocedor facial para hacer el control de los trabajadores de una empresa, éste funcionará siempre con el mismo fondo. En cambio, un sistema comercial en un escenario no controlado, como pueda ser una estación de tren, debe ser mucho más sofisticado, puesto que tiene que hacer frente a un mayor número de casuísticas", detalla este investigador.
 
Cuando el sistema ha estudiado los patrones, compara la cara con su base de datos
Cuando el sistema ha estudiado los patrones, compara la cara con su base de datos

  
¿CÓMO SABE UNA MÁQUINA QUE ESTAMOS SONRIENDO?
 
Además de con fines biométricos, los sistemas de reconocimiento facial también se usan para que una cámara de fotos capte una instantánea cuando percibe que estoy esbozando una sonrisa. Crear un sistema de este tipo es bastante sencillo: tendríamos que fotografiar a 100 o 200 personas en condiciones controladas, pidiéndolas primero que sonrían y después indicándolas que pongan una expresión diferente.
 

El 'software' solo tendría que buscar la cara, localizarla y analizar las características relevantes (en este caso, los puntos que marcan la comisura de los labios, aunque también podrían analizarse  los cambios de posición de las cejas o la aparición de arrugas), para asegurarse de que estamos sonriendo. "Puedo discernir que si la boca tiene una determinada dimensión horizontal y vertical esa persona no está sonriendo o si hay una zona blanca entre los labios", indica Tomé.
El reconocimiento facial de emociones permite detectar expresiones como alegría, asco, sorpresa, ira o aburrimiento. La compañía Emotient ha entrenado un algoritmo para identificar diferentes expresiones faciales mediante la extracción de 90.000 puntos de interés de cada 'frame' en un vídeo, con el fin de que los comerciantes conozcan cómo se sienten los clientes que recorren sus establecimientos.
 

ENORMES BASES DE DATOS Y REDES NEURONALES, LA FÓRMULA DE GOOGLE Y FACEBOOK
 
La mayoría de sistemas comerciales actuales utilizan todavía métodos tradicionales para reconocernos, aunque poco a poco van sustituyendo sus clasificadores por redes neuronales profundas, algoritmos que simulan el proceso que lleva a cabo nuestro cerebro: el propio sistema aprende cuáles son las características que necesita para reconocer a un sujeto y las extrae por sí mismo.
Tres investigadores de Google dieron a conocer recientemente FaceNet, un sistema que han creado entrenando redes neuronales con una base de datos de 260 millones de imágenes. Han conseguido una precisión del 99,63% identificando los rostros de 'Labeled Faces in the Wild', una base de datos que recoge 13.000 imágenes y se emplea para comprobar la eficacia de los sistemas de reconocimiento facial.
Google planta así cara (en un sentido muy literal) a Facebook, que el año pasado presentó DeepFace, capaz de reconocer las imágenes de esa misma base de datos con un 97,35% de precisión, mejorando en un 27% el estado del arte según la compañía. Pero, ¿cómo logró Facebook crear un sistema que distingue las caras casi tan bien como tú?
 
DeepFace, el sistema de Facebook que identifica rostros casi tan bien como las personas
DeepFace, el sistema de Facebook que identifica rostros casi tan bien como las personas

  
DeepFace utiliza un modelo en 3D del sujeto para rotar su rostro y que la red neuronal comience a hacer su trabajo, pero el verdadero potencial de su sistema es que entrenaron la red  con cuatro millones de fotografías de casi 4.000 personas. "Uno de los secretos de las redes neuronales es siempre la cantidad de datos de entrenamiento y cómo ajustas la infinidad de parámetros", nos cuenta Tomé.
Una compañía con una pequeña base de datos podría tratar de replicar esa red neuronal, pero no va a poder obtener la precisión de DeepFace porque no tiene disponibles tantas imágenes ni el detalle de los parámetros de configuración que ha utilizado, por lo que este investigador califica de "irreproductible" el sistema de Facebook.
La compañía de Mark Zuckerberg ha ido incluso más allá: su laboratorio de inteligencia artificial ha presentado un algoritmo experimental capaz de reconocernos incluso cuando nuestras caras no están visibles en la imagen. Por el momento, han conseguido un 83% de precisión con su sistema utilizando 40.000 fotos públicas de Flickr.
¿Cómo es posible reconocer sujetos de espaldas? "Además de entrenar la red con imágenes de la cara, han relacionado metiendo información complementaria que en principio no es unívoca de la persona", explica Tomé. "Han hecho una prueba reducida. Me gustaría ver un caso real con un montón de imágenes más cómo funciona", puntualiza por su parte Cabello.
 
EL FUTURO DEL RECONOCIMIENTO FACIAL, A OSCURAS
 
La baja iluminación de las imágenes continúa siendo por el momento uno de los problemas a los que se enfrentan los sistemas de reconocimiento facial tradicionales. Investigadores del Instituto Tecnológico de Karlsruhe acaban de presentar un 'software' que funciona incluso en la oscuridad: una red neuronal profunda compara imágenes infrarrojas con imágenes de luz visible.
Han conseguido un 80% de fiabilidad si disponen de varias fotografías previas del sujeto, y un 55% si solo tienen una imagen con la que comparar en su base de datos. Una tecnología que podría aplicarse en un futuro a las cámaras de videovigilancia.
 

Las imágenes infrarrojas podrían ser la solución para el reconocimiento a oscuras
Las imágenes infrarrojas podrían ser la solución para el reconocimiento a oscuras

  
 Hay otros casos en los que el reconocimiento facial puede fallar. Por mucho que Microsoft asegure que puede encontrar a nuestro gemelo famoso en la red con su página 'Twins or Not' - para revelar que Asthon Kutcher fue un buen doble en la ficción de Steve Jobs (se parecían con una probabilidad de un 67%) -, el reconocimiento facial en el caso de gemelos idénticos continúa siendo un reto para los investigadores.
"Si podemos hacer que el reconocimiento facial funcione bien para los gemelos idénticos, debería funcionar bien para la población en general", ha explicado Jeremy Dawson, investigador en biometría de la Universidad de Virginia Occidental, que ha utilizado fotografías convencionales, infrarrojas y también en 3D para tratar de mejorar el 'software' de reconocimiento facial.
"El mejor sistema de reconocimiento de caras es el cerebro", defiende por su parte Cabello. Este investigador cree que nuestra cara no será por el momento la única clave para que un cajero automático nos devuelva nuestros billetes: podrían intentar suplantarnos con una careta exacta de nuestro rostro o bien atacar el propio sistema.
 

C:\fakepath\FOTO3.jpg
¿Invadirán las calles los sistemas de reconocimiento facial?

  
"Imagínate que intercepto tu cara, 'hackeo' el sistema y accedo a la base de datos con todas las caras y puedo hacerme pasar por ti y sacar el dinero de tu cuenta con todos esos números de tu cara", señala este experto en visión artificial. Como la Sala de los Rostros sigue siendo un lugar del universo ficticio de 'Juego de Tronos', cambiar una contraseña es aún bastante más fácil que sustituir nuestro semblante.
Precisamente por eso, el reconocimiento facial se utilizará de forma conjunta con otras técnicas biométricas como la biometría de voz. "Creo que estará incluido, pero entrará en el mercado poco a poco, como otro complemento más", señala Tomé.
Eso sí, aunque nuestra cara combinada con nuestra huella dactilar o con nuestros patrones vocales vaya a sustituir progresivamente a nuestras inseguras contraseñas, la preocupación por la privacidad de los datos sobre nuestra fisonomía será uno de los grandes dilemas de los próximos años. Al fin y al cabo, ¿de qué me sirve a mí que Facebook sea capaz de reconocerme incluso si trato de esconder mi rostro?

Una mujer y dos caras

EL HUFFINGTON POST

03/07/2015

Cuando ya parecía acallada la polémica sobre si el famoso vestido era blanco y dorado o azul y negro, una nueva ilusión óptica para volver a dejarnos con la boca abierta.
En esta ocasión se trata de una imagen dividida en dos mitades. En la parte izquierda hay una imagen de una mujer, como si fuera el negativo de un carrete fotográfico. La parte izquierda no es más que un espacio en blanco. Las instrucciones para poder apreciar la ilusión son las siguientes:
  1. Mira fijamente al punto blanco sobre la nariz de la mujer durante por lo menos 15 segundos.
  2. A continuación, posar la mirada sobre el área blanca de la derecha.

  3. Y... ¡sorpresa! ¿Qué ves?
ilusión óptica

El rostro de una mujer de pelo castaño debería aparecer durante unos segundos sobre esa superficie blanca. No se debe a ningún truco de la fotografía ni a ningún efecto sobrenatural; se trata de una ilusión óptica conocida como imagen residual negativa.
Sus causantes son unas células del ojo, las ganglionares, que son las encargadas de enviar información al cerebro codificando los colores en pares de colores primarios. "El código de todos los tonos que podemos percibir en el espectro de luz lo transmiten desde la parte posterior del ojo hasta el cerebro a través de tres canales neuronales", explicó el Doctor Juno Kim a Daily Mail Australia.
Un primer canal codifica los colores negro y blanco; el segundo, del rojo y el verde y el tercero, del azul y el amarillo. "Cuando miras algo amarillo, por ejemplo, durante un tiempo prolongado, se estimulan las células que son sensibles a ese color en el canal del amarillo y el azul", apuntó.
La actividad de esas células se incremente, pero después de un tiempo, se fatigan. "Cuando después de eso diriges tu mirada a un fondo uniforme, por ejemplo una pared gris, lo que ocurre es que la célula no vuelve a su estado de descanso, sino que su actividad decae mucho más. Es ese debilitamiento para codificar el amarillo lo que hace que la codificación del color opuesto se haga más fuerte, por lo que se verá azul", añadió Kim.
Lo que ocurre en esta imagen es que las células que identifican el azul, tras estar expuestas durante un tiempo a ese color, se fatigan y debilitan, estimulando la percepción de su contrario, el amarillo, por lo que se aprecia un tono de piel más natural.

Esta ilusión óptica puede cambiar tu percepción de los colores durante meses

Este efecto óptico parte de un estudio de las gafas tintadas con varios colores, como las de las lentes 3D



Verne
Después de comprender que los tonos del famoso vestido dependían de cómo varía la percepción del color según el contexto, resurge en la red una nueva ilusión óptica que nos ayuda a seguir descubriendo cómo funciona nuestra cabeza.
El efecto McCollough ha revivido gracias a un artículo del diario Daily Mail que ha saltado a la comunidad online Reddit a través de Facebook. Este experimento no solo juega con la interpretación de los colores, sino que además incluye una amenaza, factor que lo hace doblemente atractivo para los usuarios de las redes sociales: tu percepción del color puede verse afectada (temporalmente).
En 1965, la psicóloga estadounidense Celeste McCollough aprovechó su año sabático en Canadá para estudiar los efectos que producían las gafas tintadas con varios colores, como las de las lentes 3D. A partir de esta investigación descubrió un fenómeno de percepción visual: al mirar durante un tiempo imágenes de rayas en blanco y negro, después concentrarse en otras de color verde y rojo y luego volver a mirar las primeras, el ser humano tenía la sensación de verlas verdosas y en tonos rosas. Se denomina post-efecto de color contingente a la orientación. Es decir, tras inducir a una persona a mirar durante un determinado período un dibujo se consigue un efecto concreto que puede durar horas, incluso meses.
Antes de probar el experimento, hay que tener en cuenta las posibles consecuencias. Tras publicarse el estudio de McCollough muchos psicólogos se interesaron por las secuelas en la percepción de los colores. No existe una única conclusión para explicar por qué los efectos duran tanto. En primer lugar concluyeron que no se trata de un efecto en la retina, sino en el cerebro encargado de compensar las zonas sin color rellenándolas. La propia psicóloga propuso que estos efectos eran el resultado de la adaptación de las neuronas en la corteza visual, las encargadas de codificar la orientación, la zona que reconoce un objeto (en este caso las líneas de los dibujos).
Luego llegó la investigación de los psicólogos Jones y Holding, que descubrieron que esta percepción alterada podía llegar a durar meses. Y con esta conclusión los medios de comunicación usaron este reclamo: "Esta imagen te romperá el cerebro". Suficiente para provocar curiosidad pese a los efectos colaterales.
Ahora tienes dos opciones: someterte a la prueba o quedarte con las ganas.

1. Mira durante por lo menos un minuto esta imagen.

2. Repite la misma acción con esta de color verde y rojo. Primero mira un cuadrado y luego el otro durante algo más de un minuto cada una.

3. Vuelve a mirar la imagen en blanco y negro. Si has seguido bien los pasos en vez de blanco y negro deberías ver tonalidades verdes y rosas. Y si de verdad has cumplido con las instrucciones, esta sensación debería durar más de un minuto.

4. No te preocupes, el efecto no te va a durar meses. Según algunas teorías, si ahora vuelves a mirar a esta imagen con los mismos colores, pero con el sentido de las líneas cambiado, el efecto se habrá corregido.

Si aún tienes dudas de lo que acaba de suceder, este joven divulgador científico llamado lo explica (en inglés) en un vídeo en YouTube que acumula desde enero más de 2.500.000 de reproducciones. Tom Scott lo compara con esa desagradable sensación que produce una canción pegadiza, por eso viaja hasta Disney World y aprovecha el tema Un mundo pequeño.


¿De qué color es el vestido?

 
Jaime Rubio Hancock

El reciente debate sobre si el famoso vestido de Buzzfeed era azul y negro, o blanco y dorado, ha puesto de manifiesto que no todos vemos los colores de la misma forma. Ya no estamos hablando de si alguien es daltónico o no, sino de personas sin ningún problema en la vista que interpretan la información que reciben de diferente forma. De hecho, en la redacción de Verne, dos veían el vestido blanco y dorado, y otros dos, azul y negro. En el mismo monitor y a la vez. Además, dos de nosotros lo habíamos visto antes de otro color.





1. La constancia del color
La percepción del color puede variar según el contexto, como explica a Verne Julio Lillo Jover, catedrático de Ergonomía de la Universidad Complutense de Madrid y coautor de Percepción del color y daltonismo. Esto ocurre por la llamada “constancia parcial del color”. Es decir, nosotros identificamos, por ejemplo, una camisa blanca, aunque la veamos en una habitación menos oscura (manda menos luz a los ojos) o iluminada por una bombilla clásica cuya luz es más amarillenta (manda distinto tipo de luz). En todas estas situaciones "el cerebro compensa ciertos excesos y defectos de la iluminación del entorno” y produce un resultado similar (ver un color blanco). Esta compensación es útil para identificar objetos en diferentes ambientes: sería muy caótico cambiar de habitación y que nos diera la impresión de que nos hemos cambiado de camisa por ver los mismos objetos con colores diferentes.
En cuanto al famoso vestido, Lillo Jover nos comenta que ha pasado la fotografía por una aplicación que le permite conocer cuanta energía refleja la imagen del vestido en las distintas partes del arco iris. El resultado es similar al que produciría un vestido blanco iluminado con luz azulada, del tipo de la que es común en el atardecer. Por otra parte, sin embargo, el mismo resultado puede también lograrse iluminando un vestido azul con luz blanca (la situación real en la que se obtuvo la fotografía). Como la fotografía no proporciona información espacial suficiente para escoger entre estas dos alternativas, el vestido puede verse blanco (cuando el cerebro efectúa la compensación para iluminaciones azuladas) o azul (cuando no la efectúa). Lillo Jover añade: “Una vez lo ves de un color, el cerebro tiene tendencia a seguir viéndolo de la misma forma”.
Es decir, quienes ven el vestido blanco es porque su cerebro lleva a cabo esta compensación, mientras que quienes lo ven azul no la hacen. El cerebro lleva a cabo esta operación teniendo en cuenta “la información espacial, la luz de fondo, la ambigüedad de la información…”. La imagen presenta la suficiente ambigüedad como para que las opiniones estén divididas. Lillo Jover añade: “Una vez lo ves de un color, el cerebro tiene tendencia a seguir viéndolo de la misma forma”.
De hecho, comenta que jugando con la luz que incide sobre el monitor “no es tan difícil alternar” entre el vestido azul (con menos luz) o blanco (con más luz). Tampoco es fácil, avisamos. La iluminación artificial también puede influir en que lo veamos azul y negro, y la natural, en que lo veamos blanco y dorado, como explica ASAP Science en este vídeo.
Lillo Jover apunta que es un efecto similar al de la ilusión de Adelson. Da igual que sepamos que los cuadros sean del mismo tono de gris: no hay forma de que nuestro cerebro vea ese color. Este vídeo da más datos (e ilusiones ópticas) sobre cómo nuestro cerebro usa la comparación para percibir los colores, ya que es la forma de interpretar lo que vemos de la forma más eficiente posible.

2. El color es una creación
Además de eso, hay que recordar que en el mundo físico no hay colores: hay luz. Los objetos absorben parte del espectro electromagnético y reflejan el resto, que es lo que vemos y nuestro cerebro interpreta como color.
Tal y como se explica en este artículo publicado en la BBC, nuestra visión de los colores comienza con los fotoreceptores que transforman la información de la luz en las señales eléctricas que se envían al cerebro. Estos receptores son sensibles a los azules, verdes y rojos, y aunque su configuración puede variar ligeramente de persona a persona, “a efectos prácticos vemos todos prácticamente lo mismo”, explica Lillo Jover. Si no fuera así, por ejemplo, “es muy poco probable que las mismas pantallas sirvieran para todo el mundo”. Es decir, la causa principal de que veamos el vestido blanco o azul está en la interpretación que hace nuestro cerebro de la imagen, no en nuestros ojos.
Algunos daltónicos tienen sólo dos (y no tres) tipos de fotorreceptores en sus ojos y por ello ven menos colores que las personas comunes. Por otra parte algunas mujeres tienen un tipo de cono extra y por ello se las denomina “tetracrómatas”(“tetra es cuatro en griego”). Este hecho les hace experimentar una gama de colores algo más amplia de la que vemos la mayoría de los humanos. Pueden distinguir fácilmente entre tonos de verde que a casi todos nos parecen muy similares.
Puesto que los colores son una creación de nuestro cerebro que experimentamos individualmente, podría pensarse que no hay forma de saber si dos personas ven lo mismo cuando dicen que algo tiene un determinado color, ya que no hay forma de hacer pasar la experiencia directamente de un cerebro a otro, del mismo modo que no podemos explicarle a alguien que es ciego de nacimiento qué es el color. Como se apunta en este otro vídeo de Vsauce, conceptos como “el rojo es un color cálido” o “el azul es frío” no tienen ningún sentido para estas personas.
También hay que mencionar la influencia del lenguaje. El hecho de que un idioma no tenga palabra específica para denominar un color no significa que los hablantes de ese idioma no lo vean. "Sí lo hacen y, muy probablemente, el color que ven es similar al que ven los hablantes de otro idioma. Por otra parte, algunas investigaciones también han mostrado que la capacidad para diferenciar entre colores parecidos puede mejorar cuando el lenguaje que habla una persona proporciona nombres diferentes para ambos", añade Lillo Jover. Por ejemplo, rusos y griegos utilizan normalmente dos nombres distintos para lo que nosotros llamaríamos azules celestes y azules marinos y, por ello, son algo mejores que nosotros diferenciando azules.


https://www.ted.com/talks/lang/es/beau_lotto_optical_illusions_show_how_we_see