<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet title="XSL_formatting" type="text/xsl" href="https://www.guatevision.com/wp-content/themes/guatevision/assets/feed-styles/header.xsl"?>	<rss version="2.0"
		xmlns:content="http://purl.org/rss/1.0/modules/content/"
		xmlns:wfw="http://wellformedweb.org/CommentAPI/"
		xmlns:dc="http://purl.org/dc/elements/1.1/"
		xmlns:atom="http://www.w3.org/2005/Atom"
		xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
		xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
			>
		<channel>
			<title>cámaras Archives - Guatevision</title>
			<atom:link href="https://www.guatevision.com/etiqueta/camaras/feed" rel="self" type="application/rss+xml"/>
			<link>https://www.guatevision.com/etiqueta/camaras</link>
			<description>¡Enciende Lo Bueno!</description>
			<lastBuildDate>Tue, 05 May 2026 21:17:25 -0600</lastBuildDate>
			<language>es-GT</language>
			<sy:updatePeriod>hourly</sy:updatePeriod>
			<sy:updateFrequency>1</sy:updateFrequency>
			<generator>https://wordpress.org/?v=6.8.5</generator>

<image>
	<url>https://www.guatevision.com/wp-content/uploads/sites/2/2024/05/cropped-favicon_guatevision-1.png?quality=82&#038;w=32</url>
	<title>cámaras Archives - Guatevision</title>
	<link>https://www.guatevision.com/etiqueta/camaras</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">165314105</site>				<item>
					<title>La empresa de China que controla &#8220;todos los movimientos&#8221; de 2,5 millones de personas</title>
					<link>https://www.guatevision.com/noticias/bbc/la-empresa-de-china-que-controla-todos-los-movimientos-de-25-millones-de-personas</link>
										<pubDate>
						Wed, 20 Feb 2019 00:44:32 +0000					</pubDate>
					<dc:creator><![CDATA[Andrea Domínguez]]></dc:creator>
					
					<guid isPermaLink="false">https://www.guatevision.com/?post_type=post-noticias&#038;p=258735</guid>
											<description>
							<![CDATA[Parte de la información corresponde a ciudadanos de etnia uigur y otras minorías musulmanas que habitan en esta zona del oeste de China.
]]>
						</description>
																			<content:encoded>
								<![CDATA[<img fetchpriority="high" decoding="async" width="660" height="371" src="https://www.guatevision.com/wp-content/uploads/sites/2/2019/02/105685932_mediaitem105685435.jpg?quality=82&amp;w=660&amp;h=371&amp;crop=1" class="attachment-featured-medium size-featured-medium" alt="La empresa de China que controla &quot;todos los movimientos&quot; de 2,5 millones de personas" srcset="https://www.guatevision.com/wp-content/uploads/sites/2/2019/02/105685932_mediaitem105685435.jpg 660w, https://www.guatevision.com/wp-content/uploads/sites/2/2019/02/105685932_mediaitem105685435.jpg?resize=300,169 300w, https://www.guatevision.com/wp-content/uploads/sites/2/2019/02/105685932_mediaitem105685435.jpg?resize=276,154 276w, https://www.guatevision.com/wp-content/uploads/sites/2/2019/02/105685932_mediaitem105685435.jpg?resize=260,146 260w, https://www.guatevision.com/wp-content/uploads/sites/2/2019/02/105685932_mediaitem105685435.jpg?resize=150,84 150w" sizes="(max-width: 660px) 100vw, 660px" /><p class="story-body__introduction">Desde el nombre y la dirección de una persona o el lugar dónde trabaja, hasta los lugares que visita.</p>
<p>Un investigador holandés en seguridad informática descubrió cómo una empresa china almacenaba datos detallados de más de 2,5 millones de personas en el país asiático, según reveló él mismo por Twitter y contó posteriormente al servicio chino de la BBC.</p>

<p>Se trata de la empresa <strong>SenseNets</strong>, creada en 2015 y especializada en inteligencia artificial.</p>
<p>Entre sus clientes o socios, se encuentra la policía de diferentes provincias o ciudades de China, según se precisa en su página web.</p>
<ul class="story-body__unordered-list">
<li class="story-body__list-item"><a class="story-body__link" href="https://www.bbc.com/mundo/noticias-43003860" target="_blank" rel="noopener">Así son las nuevas gafas con reconocimiento facial que usa la policía en China para capturar sospechosos</a></li>
</ul>
<p>Victor Gevers, quien descubrió la fuga de datos de la firma y se define a sí mismo como &#8220;hacker&#8221; en Twitter, explicó a la BBC que <strong>cualquiera pudo acceder a esa información durante meses</strong>, desde julio de 2018.</p>
<p>También dijo que gran parte de los datos de SenseNets se registraron en la región autónoma de Xinjiang (también denominada Sinkiang), y parte de la información corresponde a ciudadanos de etnia uigur y otras minorías musulmanas que habitan en esta zona del oeste de China.</p>
<figure class="media-landscape has-caption full-width">
<p><figure style="width: 1200px" class="wp-caption aligncenter"><img decoding="async" class="responsive-image__img js-image-replace" src="https://ichef.bbci.co.uk/news/624/cpsprodpb/118B2/production/_105685817_23.jpg" alt="Página web de SenseNets." width="1200" height="675" data-highest-encountered-width="624" /><figcaption class="wp-caption-text">SENSENETS / SenseNets es una firma especializada en reconocimiento facial.</figcaption></figure></figure>
<p>Xinjiang está en el<strong> punto de mira internacional </strong>después de que organizaciones de derechos humanos e incluso expertos de la ONU denunciaran el internamiento masivo de uigures y otros ciudadanos musulmanes en &#8220;campos de adoctrinamiento&#8221;.</p>
<ul class="story-body__unordered-list">
<li class="story-body__list-item"><a class="story-body__link" href="https://www.bbc.com/mundo/noticias-internacional-45368245" target="_blank" rel="noopener">Quiénes son los uigures, la etnia que China está deteniendo en &#8220;campamentos de reeducación&#8221;</a></li>
</ul>
<p>Pekín, por su parte, defiende los controles impuestos en la zona y la creación de &#8220;centros educativos&#8221; en aras de acabar con el &#8220;terrorismo&#8221; y el &#8220;extremismo religioso&#8221;.</p>
<p>China asegura que Xinjiang está bajo amenaza de militantes islamistas y separatistas que planean ataques e <strong>incentivan las tensiones</strong> entre la minoría uigur musulmana y la etnia han, mayoritaria en el país y predominante en el gobierno.</p>
<ul class="story-body__unordered-list">
<li class="story-body__list-item"><a class="story-body__link" href="https://www.bbc.com/mundo/noticias-internacional-46073663" target="_blank" rel="noopener">Investigación de la BBC: los campos ocultos de reeducación donde internan a los musulmanes en China</a></li>
</ul>
<h2 class="story-body__crosshead">El &#8220;hallazgo&#8221;</h2>
<p>Gevers, quien trabaja para la organización sin ánimo de lucro GDI Foundation, publicó su &#8220;hallazgo&#8221; la semana pasada a través de una serie de comentarios en Twitter.</p>
<p>El especialista alertó sobre el error de protección de datos de la compañía y detalló que cualquier persona podía acceder a la información personal de las más de 2,56 millones de personas que aparecían en esa base y que contenía desde sus números de identificación personal hasta sus empleos o <strong>fotografías de reconocimiento facial</strong>.</p>
<figure class="media-landscape has-caption full-width">
<p><figure style="width: 976px" class="wp-caption aligncenter"><img decoding="async" class="responsive-image__img js-image-replace" src="https://ichef.bbci.co.uk/news/624/cpsprodpb/A622/production/_105703524_048657181-1.jpg" alt="Uigures" width="976" height="549" data-highest-encountered-width="624" /><figcaption class="wp-caption-text">GETTY IMAGES / Los uigures son musulmanes y se ven a sí mismos como una etnia y cultura más cercana a las naciones de Asia Central que a China.</figcaption></figure></figure>
<p>Una muestra de los nombres recogidos por Gevers de la base de datos son nombres comúnmente utilizados por ciudadanos de etnia uigur musulmanes, según comprobó el servicio chino de la BBC.</p>
<p>No obstante, este medio no pudo identificar de manera independiente la veracidad de esos datos.</p>
<ul class="story-body__unordered-list">
<li class="story-body__list-item"><a class="story-body__link" href="https://www.bbc.com/mundo/noticias-44860540" target="_blank" rel="noopener">Las cámaras que pueden saber si estás feliz o si eres una amenaza para alguien</a></li>
</ul>
<p>El especialista también explicó que la base de datos recogió los movimientos de las personas en el sistema en un periodo de 24 horas: un total de <strong>6,8 millones de &#8220;desplazamientos&#8221;</strong> por puntos marcados por la firma, como &#8220;hoteles&#8221;, &#8220;comisarías de policía&#8221; o &#8220;cibercafés&#8221;.</p>
<p>Gevers aseguró que contactó a la empresa para que pusiera solución a lo ocurrido en cumplimiento del protocolo de su fundación.</p>
<figure class="media-with-caption">
<div class="player-with-placeholder"><img decoding="async" class="media-placeholder player-with-placeholder__image narrative-video-placeholder" src="https://ichef.bbci.co.uk/images/ic/720x405/p05r3mc7.jpg" /></p>
<div class="player-with-placeholder">
<div class="media-player-wrapper">
<div id="sticky-player-1">
<div class="sticky-player__wrapper">
<div class="sticky-player__body"></div>
</div>
</div>
</div>
</div>
</div><figcaption class="media-with-caption__caption">China tiene tantas cámaras que pueden rastrear a un reportero de la BBC en 7 minutos.</figcaption></figure>
<p>Según la página web de la compañía con sede en la ciudad sureña de Shenzhen (considerado el Sillicon Valley chino), SenseNets ofrece productos como<strong> sistemas de reconocimiento facial</strong>, de análisis de multitudes o de seguimiento de personas con una combinación de tecnología de inteligencia artificial y seguridad.</p>
<p>La firma menciona algunos proyectos que llevó a cabo, como la creación de un laboratorio de tecnología de reconocimiento facial con la policía de la ciudad de Lianyungang, cerca de Shanghái, o la colaboración con las autoridades de seguridad pública de la provincia de Cantón (sur) en el reconocimiento facial para protestas.</p>
<h2 class="story-body__crosshead">&#8220;Sin juicio ni cargo&#8221;</h2>
<p>No solo las autoridades chinas utilizan tecnología de reconocimiento facial. Este tipo de sistemas también están siendo probados o puestos en práctica en países como <strong>Estados Unidos, Reino Unido o India</strong>.</p>
<p>En el caso de China, Pekín ha promovido la integración de esta tecnología con su red tradicional de vigilancia por video, argumentando razones de seguridad.</p>
<ul class="story-body__unordered-list">
<li class="story-body__list-item"><a class="story-body__link" href="https://www.bbc.com/mundo/noticias-46608085" target="_blank" rel="noopener">El polémico experimento tecnológico de la policía de Londres que tildan de &#8220;autoritario&#8221;</a></li>
</ul>
<p>Estas medidas <strong>han generado preocupación</strong> por la posibilidad de que violen la privacidad y faciliten la persecución de disidentes y minorías, como denuncian grupos de derechos humanos.</p>
<figure class="media-landscape has-caption full-width"><span class="image-and-copyright-container"><img loading="lazy" decoding="async" class="responsive-image__img js-image-replace aligncenter" src="https://ichef.bbci.co.uk/news/624/cpsprodpb/6C01/production/_103894672_tv048663034.jpg" alt="Reconocimiento facial." width="768" height="511" data-highest-encountered-width="624" /><span class="story-image-copyright">REUTERS / </span></span>No solo China utiliza sistemas de este tipo.</figure>
<p>En Xinjiang, en concreto, se acusa a las autoridades chinas de haber creado un <strong>&#8220;Estado policial&#8221;.</strong></p>
<p>El año pasado, Human Rights Watch (HRW) denunció en un informe detenciones masivas y arbitrarias de musulmanes que residen en esta región autónoma del país, a los que &#8220;se tortura y adoctrina en una campaña de abusos sistemáticos que no se ha visto en el país en décadas&#8221;.</p>
<p>La ONG afirmó que los internos en los llamados &#8220;centros de reeducación&#8221; son<strong>forzados a aprender mandarín y entonar cánticos del gobernante Partido Comunista</strong>.</p>
<p>Preguntado por este informe, un portavoz del Ministerio de Asuntos Exteriores chino, Geng Shuang, consideró que HRW es una organización llena de &#8220;prejuicios&#8221; sobre China.</p>
<p>&#8220;La serie de medidas implementadas en Xinjiang están diseñadas para <strong>mejorar la estabilidad</strong>, el desarrollo, la solidaridad y (&#8230;) acabar con las actividades separatistas étnicas y los crímenes terroristas y violentos&#8221;, defendió Geng.</p>
<ul class="story-body__unordered-list">
<li class="story-body__list-item"><a class="story-body__link" href="https://www.bbc.com/mundo/noticias-internacional-42918026" target="_blank" rel="noopener">&#8220;Pagaré las balas para que maten a mi esposa y a mi madre&#8221;: el testimonio de un uigur cuya familia está detenida en un campo de reeducación en China</a></li>
</ul>
<p>El portavoz además enfatizó que la región pasa por un periodo de &#8220;estabilidad social, desarrollo económico&#8221; y que los diferentes grupos étnicos cohabitan &#8220;en harmonía&#8221;.</p>
<figure class="media-landscape has-caption full-width">
<p><figure style="width: 976px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="responsive-image__img js-image-replace" src="https://ichef.bbci.co.uk/news/624/cpsprodpb/13C95/production/_104154018_abdulsalam.jpg" alt="Internación." width="976" height="549" data-highest-encountered-width="624" /><figcaption class="wp-caption-text">GETTY IMAGES / &#8220;Ellos quieren borrar la evidencia de la existencia de los uigures&#8221;, dijo uno de los hombres que estuvo dentro de los campos de detención, a la BBC.</figcaption></figure></figure>
<p>Una investigación de la BBC publicada a finales del año pasado recogió testimonios de algunas de las personas que pasaron por estos centros y analizó imágenes satelitales que mostraron la construcción de los mismos.</p>
<p>&#8220;Nuestro reporte se suma a la evidencia de que el programa de reeducación masiva es la detención disfrazada con otro nombre: <strong>el encierro de muchos miles de musulmanes sin juicio ni cargos.</strong> De hecho, sin ni siquiera acceso a un proceso legal&#8221;, escribió entonces el periodista de la BBC John Sudworth.</p>
<p>Xinjiang ha sido escenario de violencia en el pasado y Pekín resalta el éxito de sus medidas estos últimos años para &#8220;pacificar&#8221; esta y otras zonas del país.</p>
<p>Uigures en el exilio atribuyen la violencia ocurrida a la política &#8220;represiva&#8221; de Pekín contra su cultura y su religión, mientras el gobierno chino considera los sucesos &#8220;atentados terroristas&#8221; llevados a cabo por <strong>grupos separatistas islámicos</strong> con vínculos en el extranjero.</p>
<p>Entre las polémicas medidas implementadas por el ejecutivo chino estos últimos años, está la prohibición de llevar velo o barba larga, e incluso utilizar nombres que suenen como musulmanes.</p>
]]>
							</content:encoded>
																										<post-id xmlns="com-wordpress:feed-additions:1">258735</post-id>				</item>
							<item>
					<title>Las cámaras que pueden saber si estás feliz o si eres una amenaza para alguien</title>
					<link>https://www.guatevision.com/noticias/bbc/las-camaras-que-pueden-saber-si-estas-feliz-o-si-eres-una-amenaza-para-alguien</link>
										<pubDate>
						Tue, 17 Jul 2018 22:50:45 +0000					</pubDate>
					<dc:creator><![CDATA[Andrea Domínguez]]></dc:creator>
					
					<guid isPermaLink="false">https://www.guatevision.com/?post_type=post-noticias&#038;p=202156</guid>
											<description>
							<![CDATA[]]>
						</description>
																			<content:encoded>
								<![CDATA[<img loading="lazy" decoding="async" width="660" height="371" src="https://www.guatevision.com/wp-content/uploads/sites/2/2018/07/102484531_kalioubyrana4.jpg?quality=82&amp;w=660&amp;h=371&amp;crop=1" class="attachment-featured-medium size-featured-medium" alt="Las cámaras que pueden saber si estás feliz o si eres una amenaza para alguien" srcset="https://www.guatevision.com/wp-content/uploads/sites/2/2018/07/102484531_kalioubyrana4.jpg 660w, https://www.guatevision.com/wp-content/uploads/sites/2/2018/07/102484531_kalioubyrana4.jpg?resize=300,169 300w, https://www.guatevision.com/wp-content/uploads/sites/2/2018/07/102484531_kalioubyrana4.jpg?resize=276,154 276w, https://www.guatevision.com/wp-content/uploads/sites/2/2018/07/102484531_kalioubyrana4.jpg?resize=260,146 260w, https://www.guatevision.com/wp-content/uploads/sites/2/2018/07/102484531_kalioubyrana4.jpg?resize=150,84 150w" sizes="auto, (max-width: 660px) 100vw, 660px" /><p class="story-body__introduction"><strong>La tecnología de reconocimiento facial es cada vez más sofisticada.</strong></p>
<p>Aumenta el número de empresas que dicen tener sistemas capaces de leer emociones y detectar comportamientos sospechosos, pero ¿qué implica eso para la privacidad y las libertades civiles de las personas?</p>

<p>Aunque lleva décadas funcionando, en los últimos años el progreso ha sido enorme gracias a los avances de la visión computacional y la inteligencia artificial, según los expertos en tecnología.</p>
<p>Ahora, por ejemplo, se utiliza para identificar a personas en las fronteras, desbloquear teléfonos, detectar criminales o validar transacciones bancarias.</p>
<p>Pero algunas compañías tecnológicas dicen que también pueden <strong>evaluar nuestro estado emocional</strong>.</p>
<h2 class="story-body__crosshead">Microexpresiones</h2>
<p>Desde la década de 1970, los psicólogos dicen que pueden detectar emociones ocultas estudiando las microexpresiones (movimientos muy sutiles y gestos nerviosos) en los rostros de personas en fotografías y videos.</p>
<ul class="story-body__unordered-list">
<li class="story-body__list-item"><a class="story-body__link" href="https://www.bbc.com/mundo/noticias/2015/09/150909_vert_fut_mejor_manera_descubrir_mentiroso_yv" target="_blank" rel="noopener">La mejor (y la peor) manera de identificar a un mentiroso</a></li>
<li class="story-body__list-item"><a class="story-body__link" href="https://www.bbc.com/mundo/vert-cap-37523955" target="_blank" rel="noopener">Las mañas y gestos nerviosos que pueden arruinar tu entrevista de trabajo</a></li>
</ul>
<p>Los algoritmos y cámaras de alta definición pueden hacerlo con precisión y rapidez.</p>
<p>&#8220;Ya se están usando para fines comerciales&#8221;, le explica a la BBC Oliver Philippou, experto en videovigilancia que trabaja en la compañía tecnológica británica IHS Markit.</p>
<figure class="media-landscape has-caption full-width"><span class="image-and-copyright-container"><img loading="lazy" decoding="async" class="responsive-image__img js-image-replace aligncenter" src="https://ichef.bbci.co.uk/news/624/cpsprodpb/88DF/production/_102493053_ios11-iphone-x-face-id-hero.jpg" alt="El iPhone X puede desbloquearse usando reconocimiento facial." width="976" height="549" data-highest-encountered-width="624" /><span class="story-image-copyright">APPLE</span></span><figcaption class="media-caption"><span class="media-caption__text">El iPhone X puede ser desbloqueado usando reconocimiento facial.</span></figcaption></figure>
<p>&#8220;Un supermercado podría usarlos en sus pasillos. No para identificar personas, sino para analizar quién entra en términos de edad y género, y también su estado de ánimo. Puede ser útil para el marketing dirigido y para la publicidad por emplazamiento&#8221;.</p>
<p>La agencia de investigación de mercados Kantar Millward Brown utiliza la tecnología desarrollada por la firma estadounidense Affectiva para <strong>analizar cómo reaccionan los consumidores</strong> a comerciales de televisión.</p>
<p>Affectiva graba videos de rostros de personas con su permiso y luego &#8220;codifica&#8221; sus expresiones, fotograma a fotograma, para evaluar su estado de humor.</p>
<p>&#8220;Entrevistamos a gente, pero obtenemos muchos más matices observando también sus expresiones. Puedes ver exactamente qué parte de un aviso publicitario funciona bien y qué respuesta emocional desencadena&#8221;, le dice a la BBC Graham Page, director de oferta e innovación en Kantar Millward Brown.</p>
<figure class="media-landscape has-caption full-width"><span class="image-and-copyright-container"><img loading="lazy" decoding="async" class="responsive-image__img js-image-replace aligncenter" src="https://ichef.bbci.co.uk/news/624/cpsprodpb/13AF/production/_102493050_weseeemotionrecognition4.jpg" alt="tecnología de reconocimiento facial" width="976" height="650" data-highest-encountered-width="624" /><span class="story-image-copyright">WESEE</span></span><figcaption class="media-caption"><span class="media-caption__text">La tecnología de WeSee se usa para evaluar las emociones de la gente durante entrevistas.</span></figcaption></figure>
<h2 class="story-body__crosshead">&#8220;Comportamientos sospechosos&#8221;</h2>
<p>Más polémicas son las empresas que ofrecen &#8220;detección de emociones&#8221; por motivos de seguridad.</p>
<p>La firma británica WeSee, por ejemplo, dice que su tecnología de inteligencia artificial puede detectar comportamientos sospechosos leyendo señales faciales <strong>imperceptibles para el ojo no entrenado</strong>.</p>
<p>Emociones como la duda o la rabia pueden ocultarse y contrastar con el lenguaje que usa la persona.</p>
<p>WeSee asegura que ha estado trabajando con una organización &#8220;de alto perfil&#8221; en la aplicación de la ley para analizar a personas que son entrevistadas.</p>
<p>&#8220;Usando solamente imágenes de video de baja calidad, nuestra tecnología tiene la capacidad de determinar el<strong> estado de ánimo o la intención de un individuo </strong>por sus expresiones faciales, postura, gestos y movimiento&#8221;, le cuenta a la BBC su director ejecutivo, David Fulton.</p>
<p>&#8220;En el futuro, las cámaras de video en las estaciones de metro podría usar nuestra tecnología para detectar comportamientos sospechosos y alertar a las autoridades de<strong> una potencial amenaza terrorista</strong>&#8220;.</p>
<figure class="media-landscape has-caption full-width"><span class="image-and-copyright-container"><img loading="lazy" decoding="async" class="responsive-image__img js-image-replace aligncenter" src="https://ichef.bbci.co.uk/news/624/cpsprodpb/68AA/production/_102549762_liampaynesj12.jpg" alt="Concierto de música" width="976" height="549" data-highest-encountered-width="624" /></span><figcaption class="media-caption"><span class="media-caption__text">¿Puede la detección de emociones ayudar a hacer más seguros grandes eventos como conciertos o partidos de fútbol?</span></figcaption></figure>
<p>&#8220;Lo mismo podría hacerse con multitudes de personas en eventos como partidos de fútbol y mítines políticos&#8221;.</p>
<p>Pero Philippou es escéptico en cuanto a la precisión de la detección de emociones.</p>
<h2 class="story-body__crosshead">La controversia</h2>
<p>&#8220;En lo que respecta a la identificación facial, todavía hay márgenes de error. Las compañías más avanzadas dicen que pueden identificar gente con una precisión de entre el 90 y el 92%&#8221;.</p>
<p>&#8220;A la hora de identificar emociones, <strong>el margen de error aumenta significativamente&#8221;.</strong></p>
<p>Eso preocupa a activistas por la privacidad y porque temen que esta tecnología pueda <strong>hacer juicios equivocados o sesgados</strong>.</p>
<figure class="media-landscape has-caption full-width"><span class="image-and-copyright-container"><img loading="lazy" decoding="async" class="responsive-image__img js-image-replace aligncenter" src="https://ichef.bbci.co.uk/news/624/cpsprodpb/F1FC/production/_102484916_facial-recognition-van-1_1-1024x825.jpg" alt="cámara de vigilancia" width="976" height="549" data-highest-encountered-width="624" /><span class="story-image-copyright">SOUTH WALES POLICE</span></span><figcaption class="media-caption"><span class="media-caption__text">En varios países, las autoridades usan cámaras de vigilancia con reconocimiento facial.</span></figcaption></figure>
<p>&#8220;Imagino que hay algunos casos en los que resulta muy útil, pero las implicaciones de privacidad derivadas de la observación de emociones, el reconocimiento facial y la elaboración de perfiles no tienen precedentes&#8221;, dice Frederike Kaltheuner, del grupo Privacy International.</p>
<p>El reconocimiento facial ya es de por sí bastante controvertido.</p>
<p>La organización por los derechos humanos Liberty dice que esta tecnología ha generado un gran cantidad de<strong> &#8220;falsos positivos&#8221; </strong>en eventos como la final de la Champions League en Cardiff, Reino Unido, el año pasado.</p>
<p>Un residente de esa localidad, Ed Bridges, tomó acciones legales contra las autoridades argumentando que el sistema violó la privacidad de las personas.</p>
<p><strong>Pero cada vez se confía más en ella</strong>, dice Patrick Grother, director de pruebas biométricas en el Instituto Nacional de Estándares y Tecnología, una agencia del gobierno estadounidense que investiga cuestiones relacionadas con reconocimiento facial.</p>
<figure class="media-landscape has-caption full-width"><span class="image-and-copyright-container"><img loading="lazy" decoding="async" class="responsive-image__img js-image-replace aligncenter" src="https://ichef.bbci.co.uk/news/624/cpsprodpb/185C6/production/_99928799_gettyimages-915205050.jpg" alt="agente policial enChina" width="976" height="549" data-highest-encountered-width="624" /><span class="story-image-copyright">AFP</span></span><figcaption class="media-caption"><span class="media-caption__text">En China, la policía usa gafas de reconocimiento facial.</span></figcaption></figure>
<p>Él atribuye el reciente progreso tecnológico al desarrollo de &#8220;redes neuronales convolucionales&#8221;, un sistema avanzado de aprendizaje automático que permite una precisión mucho mayor.</p>
<p>&#8220;Esos algoritmos hacen que las computadoras puedan analizar imágenes a diferentes escalas y ángulos&#8221;, explica.</p>
<p>&#8220;Puedes identificar caras de forma mucho más precisa, incluso aunque estén parcialmente cubiertas por gafas de sol o cicatrices. La tasa de error se ha reducido hasta diez veces desde 2014, aunque <strong>ningún algoritmo es perfecto</strong>&#8220;.</p>
<p>Fulton, de WeSee, dice que su tecnología es simplemente una herramienta para ayudar a la gente a analizar videos de forma más inteligente.</p>
<p>&#8220;De momento, podemos detectar un comportamiento sospechoso pero no intencional para evitar que algo malo ocurra. Pero creo que vamos a lograrlo y ya estamos haciendo pruebas&#8221;.</p>
<figure class="media-landscape has-caption full-width"><span class="image-and-copyright-container"><img loading="lazy" decoding="async" class="responsive-image__img js-image-replace aligncenter" src="https://ichef.bbci.co.uk/news/624/cpsprodpb/419A/production/_102549761_face_recognition_fr_pic3.png" alt="Tecnología AFR" width="976" height="549" data-highest-encountered-width="624" /><span class="story-image-copyright">NEC</span></span><figcaption class="media-caption"><span class="media-caption__text">La policía de Reino Unido usa tecnología de reconocimiento facial automatizada (AFR).</span></figcaption></figure>
<p>Suena un paso más cerca del concepto de &#8220;pre-crimen&#8221; de la película de ciencia ficción <strong><i>Minority Report</i></strong> (&#8220;Sentencia Previa&#8221;), en la que criminales potenciales eran arrestados antes incluso de que hubieran cometido sus crímenes.</p>
<p>¿Es otra preocupación más para las organizaciones de libertades civiles?</p>
<p>&#8220;La pregunta clave que siempre nos hacemos es: ¿quién está creando esta tecnología y con qué fin?, dice Frederike Kaltheuner, de Privacy International. &#8220;¿La están usando para ayudarnos, <strong>o para juzgarnos, evaluarnos y controlarnos</strong>?&#8221;</p>
]]>
							</content:encoded>
																										<post-id xmlns="com-wordpress:feed-additions:1">202156</post-id>				</item>
					</channel>
	</rss>
	