<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>orientação política &#8211; Inovar ASC &#8211; Soluções em ERP</title>
	<atom:link href="https://inovar-asc.com.br/tag/orientacao-politica/feed/" rel="self" type="application/rss+xml" />
	<link>https://inovar-asc.com.br</link>
	<description>A Inovar ASC oferece soluções ao seu alcance em sistemas de ERP e Gestão de Pessoas.</description>
	<lastBuildDate>Fri, 15 Jan 2021 14:18:38 +0000</lastBuildDate>
	<language>pt-BR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9</generator>
	<item>
		<title>Reconhecimento facial pode detectar orientação política, diz estudo</title>
		<link>https://inovar-asc.com.br/reconhecimento-facial-pode-detectar-orientacao-politica-diz-estudo/</link>
					<comments>https://inovar-asc.com.br/reconhecimento-facial-pode-detectar-orientacao-politica-diz-estudo/#respond</comments>
		
		<dc:creator><![CDATA[Juarez Damasceno Pereira]]></dc:creator>
		<pubDate>Fri, 15 Jan 2021 14:18:35 +0000</pubDate>
				<category><![CDATA[Notícias]]></category>
		<category><![CDATA[orientação política]]></category>
		<category><![CDATA[Reconhecimento facial]]></category>
		<guid isPermaLink="false">http://inovar-asc.com.br/?p=5092</guid>

					<description><![CDATA[Após virar &#8220;profeta&#8221; de um dos maiores escândalos do Facebook, Michal Kosinski passou a dedicar seus estudos a potenciais perigos à privacidade causados por tecnologias de reconhecimento facial. Michal Kosinski, controverso professor da Universidade Stanford, está de volta. O polonês de 38 anos descreveu em 2013 o uso de curtidas e testes no Facebook para decifrar a [&#8230;]]]></description>
										<content:encoded><![CDATA[
<p>Após virar &#8220;profeta&#8221; de um dos maiores escândalos do Facebook, Michal Kosinski passou a dedicar seus estudos a potenciais perigos à privacidade causados por tecnologias de reconhecimento facial.</p>



<p>Michal Kosinski, controverso professor da Universidade Stanford, está de volta. O polonês de 38 anos descreveu em 2013 o uso de curtidas e testes no Facebook para decifrar a personalidade de uma pessoa &#8211; a estratégia foi usada posteriormente pela consultoria política Cambridge Analytica (CA) para influenciar a opinião pública em episódios como as eleições americanas de 2016.</p>



<p>Após virar &#8220;profeta&#8221; de um dos maiores escândalos do Facebook, Kosinski passou a dedicar seus estudos a potenciais perigos à privacidade causados por tecnologias de reconhecimento facial. Nesta segunda (11), a prestigiada revista científica Nature publicou o novo artigo do pesquisador, no qual afirma ser possível usar reconhecimento facial para detectar a orientação política das pessoas.</p>



<p>No experimento, o algoritmo analisou mais de 1 milhão de fotos de perfis no Facebook e em sites de namoros em três países: EUA, Canadá e Inglaterra. Ao final, a inteligência artificial (IA) teria identificado corretamente a orientação política dessas pessoas em 72% dos casos &#8211; seguindo a classificação amplamente utilizada nos EUA, as pessoas estavam divididas em &#8216;conservadoras&#8217; e &#8216;liberais&#8217;.</p>



<p>&#8220;Provavelmente, o algoritmo está detectando padrões e fazendo combinações que passam despercebidas aos olhos humanos&#8221;, explica ele ao Estadão. No estudo, a IA determinou 2.048 atributos de descrição da face, embora não seja possível saber o que a máquina captou &#8211; é algo que reforça a crítica de que a IA é uma tecnologia pouco transparente.</p>



<h2 class="wp-block-heading">CRÍTICAS</h2>



<p>Os resultados e a própria existência da pesquisa devem replicar críticas já feitas anteriormente aos trabalhos de Kosinski. Em 2017, ele publicou na revista The Economist uma pesquisa que afirmava ser possível usar o reconhecimento facial para detectar a orientação sexual das pessoas. Na época, grupos LGBTQ+ dos EUA consideraram o estudo falho e perigoso, enquanto pesquisadores questionaram seu método, linguagem e propósito.</p>



<p>&#8220;Eu espero que as pessoas tenham a cabeça mais fria desta vez. A maioria das críticas acontecem por não entenderem o que estou fazendo. Eu estou apontando os problemas da tecnologia e os riscos que ela traz para privacidade e direitos civis&#8221;, diz.</p>



<p>A argumentação para a existência do trabalho e os métodos adotados são problemáticos, dizem especialistas de diferentes áreas.</p>



<p>&#8220;Você não precisa explodir uma bomba para saber que ela é perigosa&#8221;, afirma Sérgio Amadeu, professor da Universidade Federal do ABC (UFABC) e especialista em políticas públicas e inclusão digital. &#8220;Me preocupo muito com o tipo de incentivo e sinalização que esse tipo de pesquisa nos traz&#8221;, diz.</p>



<p>&#8220;Isso recicla velhas práticas. É uma atualização do positivismo de Cesare Lombroso&#8221;, diz ele, em referência ao psiquiatra e criminologista italiano que viveu no século 19 e que dizia ser possível identificar criminosos a partir de suas características físicas. &#8220;Agora, porém, a computação é usada para justificar velhos preconceitos.&#8221;</p>



<p>&#8220;É absurdo dizer que é possível extrair uma construção social, como orientação política, a partir de características genéticas e fenotípicas&#8221;, diz Roberto Hirata Junior, professor da USP. Segundo ele, é possível que exista viés nos dados e nas classificações para indicar orientação política.</p>



<p class="has-text-align-right">Fonte: Gazeta</p>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://inovar-asc.com.br/reconhecimento-facial-pode-detectar-orientacao-politica-diz-estudo/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
