<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet title="XSL_formatting" type="text/xsl" href="https://www.guatevision.com/wp-content/themes/guatevision/assets/feed-styles/header.xsl"?>	<rss version="2.0"
		xmlns:content="http://purl.org/rss/1.0/modules/content/"
		xmlns:wfw="http://wellformedweb.org/CommentAPI/"
		xmlns:dc="http://purl.org/dc/elements/1.1/"
		xmlns:atom="http://www.w3.org/2005/Atom"
		xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
		xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
			>
		<channel>
			<title>deepfake Archives - Guatevision</title>
			<atom:link href="https://www.guatevision.com/etiqueta/deepfake/feed" rel="self" type="application/rss+xml"/>
			<link>https://www.guatevision.com/etiqueta/deepfake</link>
			<description>¡Enciende Lo Bueno!</description>
			<lastBuildDate>Tue, 05 May 2026 21:17:25 -0600</lastBuildDate>
			<language>es-GT</language>
			<sy:updatePeriod>hourly</sy:updatePeriod>
			<sy:updateFrequency>1</sy:updateFrequency>
			<generator>https://wordpress.org/?v=6.8.5</generator>

<image>
	<url>https://www.guatevision.com/wp-content/uploads/sites/2/2024/05/cropped-favicon_guatevision-1.png?quality=82&#038;w=32</url>
	<title>deepfake Archives - Guatevision</title>
	<link>https://www.guatevision.com/etiqueta/deepfake</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">165314105</site>				<item>
					<title>Los videos &#8220;deepfake&#8221;, una nueva amenaza para la desinformación</title>
					<link>https://www.guatevision.com/noticias/internacional/los-videos-deepfake-una-nueva-amenaza-para-la-desinformacion</link>
										<pubDate>
						Tue, 29 Jan 2019 12:20:52 +0000					</pubDate>
					<dc:creator><![CDATA[Andrea Domínguez]]></dc:creator>
					
					<guid isPermaLink="false">https://www.guatevision.com/?post_type=post-noticias&#038;p=254275</guid>
											<description>
							<![CDATA[Imágenes de un político diciendo lo que nunca diría o un video porno de una estrella de Hollywood. Lo que podría parecer una falla en el televisor no es otra cosa que el futuro de las "fake news".]]>
						</description>
																			<content:encoded>
								<![CDATA[<img fetchpriority="high" decoding="async" width="760" height="430" src="https://www.guatevision.com/wp-content/uploads/sites/2/2019/01/Captura-de-pantalla-2019-01-28-a-las-17.14.56.png?quality=82&amp;w=760&amp;h=430&amp;crop=1" class="attachment-featured-medium size-featured-medium" alt="Los videos &quot;deepfake&quot;, una nueva amenaza para la desinformación" srcset="https://www.guatevision.com/wp-content/uploads/sites/2/2019/01/Captura-de-pantalla-2019-01-28-a-las-17.14.56.png?resize=1200,679 1200w, https://www.guatevision.com/wp-content/uploads/sites/2/2019/01/Captura-de-pantalla-2019-01-28-a-las-17.14.56.png?resize=760,430 760w, https://www.guatevision.com/wp-content/uploads/sites/2/2019/01/Captura-de-pantalla-2019-01-28-a-las-17.14.56.png?resize=260,146 260w" sizes="(max-width: 760px) 100vw, 760px" /><p>Los videos &#8220;deepfake&#8221;, que manipulan la realidad, se están volviendo cada vez más sofisticados gracias a los avances de la inteligencia artificial, incrementando así su potencial para generar un nuevo tipo de desinformación, con consecuencias devastadoras.</p>
<p style="padding-left: 30px;">&#8220;<strong>Aún no llegamos a la etapa en la que vemos cómo se usan los &#8216;deepfakes&#8217; como armas, pero ese momento está cerca</strong>&#8220;, dice a AFP Robert Chesney, un profesor de derecho en la Universidad de Texas que investigó el tema.</p>
<p>Chesney considera que los &#8220;deepfakes&#8221; podrían sumar confusión a la ola actual de desinformación y operaciones dirigidas.</p>

<p><em><strong>&#8220;Un &#8216;deepfake&#8217; oportuno con un guión intencionado o una serie de estos videos podrían dar vuelta una elección, encender la violencia en una ciudad preparada para la agitación social, impulsar discursos sobre supuestas atrocidades de un enemigo o exacerbar las divisiones políticas en una sociedad&#8221;</strong></em>, señalaron Chesney y Danielle Citron, profesora de la Universidad de Maryland, en una publicación de blog para el Consejo de Relaciones Exteriores.</p>
<p>Paul Scharre, miembro del Center for a New American Security, un think tank especializado en inteligencia artificial y temas de seguridad, dice que es casi inevitable que los &#8220;deepfakes&#8221; puedan ser utilizados en próximas elecciones.</p>
<p>Un video falso podría ser usado para desprestigiar a un candidato, advierte Scharre, o para que la gente pueda negar hechos expuestos en videos auténticos.</p>
<p>Si circulan videos falsos creíbles, la &#8220;gente puede elegir creer la versión o discurso que quieran, y esa es la verdadera preocupación&#8221;, añade.</p>
<h3> ¿El regreso de Chaplin?</h3>
<p>La manipulación de videos existe desde hace décadas y puede ser inocua o incluso entretenida, como la aparición de Peter Cushing en &#8220;Rogue One: A Star Wars Story&#8221; gracias a la tecnología, 22 años después de su muerte.</p>
<p>Investigadores de la Universidad Carenegie Mellon revelaron el año pasado técnicas que simplifican la producción de &#8220;deepfakes&#8221; a través del aprendizaje automático para deducir la información faltante.</p>
<p>En la industria del cine &#8220;la esperanza es que podamos hacer regresar a antiguas estrellas como Charlie Chaplin&#8221;, dice Aayush Bansal.</p>
<p>La difusión de aplicaciones que hacen videos falsos de manera realista amenaza con socavar la noción de verdad en los medios, los juicios y otras áreas, apuntan los investigadores.</p>
<p>&#8220;<strong>Si podemos poner cualquier palabra en la boca de cualquiera, da bastante miedo</strong>&#8220;, apunta Siwei Lyu, profesor de computación en la Universidad Estatal de Nueva York en Albany, que está investigando la detección de &#8220;deepfakes&#8221;.</p>
<p>&#8220;Se desdibuja la línea entre lo que es verdad y lo que es falso. Si no podemos confiar realmente en que la información sea auténtica, es mejor no tener información&#8221;.</p>
<h3>Separar lo falso de lo real</h3>
<p>Los investigadores trabajan desde hace un tiempo en mejores métodos de detección, con el apoyo de compañías privadas como Google y de instituciones gubernamentales como la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA) del Pentágono, que comenzó una iniciativa de análisis de los medios en 2015.</p>
<p>Aunque los &#8220;deepfakes&#8221; se han estado desarrollando durante varios años, el tema volvió a quedar en el centro de atención en abril después de que apareciera un video en el que se mostraba al expresidente Barack Obama utilizando una mala palabra para describir a su sucesor Donald Trump, que finalmente fue un artificio del cineasta Jordan Peele coordinado con BuzzFeed.</p>
<p>En 2018, la proliferación de videos porno en los que las caras de los protagonistas eran cambiadas por imágenes de Emma Watson, Scarlett Johansson y otras celebridades llevó a que los &#8220;deepfakes&#8221; fueran prohibidos por Reddit, Twitter y Pornhub. Sin embargo, no quedó claro cómo podrían cumplir esa norma.</p>
<p>Scharre considera una forma importante de combatir a los &#8220;deepfakes&#8221; es aumentar la concientización pública, haciendo que la gente sea más escéptica ante lo que solía considerarse como prueba indiscutible.</p>
<p>&#8220;Una vez que un video se hace viral podría ser demasiado tarde para el daño social que provocó&#8221;, asegura.</p>
]]>
							</content:encoded>
																										<post-id xmlns="com-wordpress:feed-additions:1">254275</post-id>				</item>
					</channel>
	</rss>
	