<?xml version="1.0" encoding="UTF-8"?>
    <rss xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:media="http://search.yahoo.com/mrss/" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:georss="http://www.georss.org/georss" xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" version="2.0">
      <channel>
        
    <title>Bolavip Brasil</title>
    <description />
    <link>https://br.bolavip.com</link>
    <language>BR</language>
    <lastBuildDate>Sat, 09 May 2026 22:39:59 -0300</lastBuildDate>
    <atom:link rel="self" type="application/rss+xml" href="https://br.bolavip.com/rss/feed/privacidade" />
    <image>
      <title>Bolavip Brasil</title>
      <url>https://assets.bolavip.com/bbr/logos/bolavip-square.png</url>
      <link>https://br.bolavip.com</link>
    </image>

    <item>
          <guid isPermaLink="true">https://br.bolavip.com/noticias/Apple-ira-monitorar-usuarios-que-reproduzir-conteudo-de-abuso-infantil--20210807-0011.html</guid>
          <title>Apple irá monitorar usuários que reproduzir conteúdo de abuso infantil</title>
          <link><![CDATA[https://br.bolavip.com/noticias/Apple-ira-monitorar-usuarios-que-reproduzir-conteudo-de-abuso-infantil--20210807-0011.html]]></link>
          <pubDate>Sat, 07 Aug 2021 15:41:40 -0300</pubDate>
          <description><![CDATA[O recurso é projetado para ter, no máximo, umfalso positivo por trilhão de análises <p>A <a href="https://br.bolavip.com/apple-t178156" target="_blank" rel="noopener">Apple</a>anunciou que vai pôr em uso um sistema para localizar material de abuso sexual infantil (<em>CSAM, em inglês</em>) nos dispositivos. Inicialmente, a empresa vai realizar o teste nos Estados Unidos (EUA). <a href="https://br.bolavip.com/noticias/iOS-Versao-14.7-do-sistema-chega-oficialmente-correcoes-e-mais-seguranca-20210720-0034.html" target="_blank" rel="noopener">As medidas serão lançadas nas próximas atualizações, ainda esse ano.</a> </p>
<div class="ck-related-news">  <span data-src="/brasil/contenidos/2021/08/05/noticia_0038.html" data-type="news"></span>  <p></p>
<div id="relatedNews-45">     </div>
<p></p></div>
<p></p>
<p>“Antes que uma imagem seja armazenada nas fotos do iCloud, um processo de correspondência no dispositivo é executado para essa imagem em relação ao material de abuso sexual infantil conhecido”, disse a Apple.</p>
<p></p>
<p>As imagens, passarão por uma tecnologia que irá procurar correspondências com o material de pornografia infantil, se detectado, as imagens serão analisadas manualmente antes de serem entregues às autoridades. Além de, desabilitar a conta do usuário, conforme o comunicado oficial publicado.</p>
<p></p>
<p>O sistema vai comparar as imagens de um banco de dados (<strong><em>hashes</em></strong>) fornecido pelo Centro Nacional de Crianças Desaparecidas e Exploradas nos EUA e de outras organizações, ou seja, códigos numéricos que podem ser combinados com imagens dos dispositivos, mesmo que tenham sido editadas, antes de serem armazenadas no iCloud.</p>
<p></p>
<p><span></span></p>
<div style="text-align:center">
<div class="ck-twitter" id="twitter-25">
<blockquote class="twitter-tweet">
<p dir="ltr" lang="en">Don’t worry though. There is absolutely no way you can learn which photos the system is scanning for. Why is this good? Doesn’t this mean the system can literally scan for anything with no accountability? Not addressed. <a href="https://t.co/EfMRbz4XEq">pic.twitter.com/EfMRbz4XEq</a></p>
<p> — Matthew Green (@matthew_d_green)    <a href="https://twitter.com/matthew_d_green/status/1423376041402413061?ref_src=twsrc%5Etfw">August 5, 2021</a>   </p></blockquote>
<p>      <span class="item first"></span>   <span class="item second"></span>   <span class="item third"></span>  </p></div>
<p></p></div>
<p></p>
<p>Segundo a Apple, o recurso é projetado para ter, no máximo, umfalso positivo por trilhão de análises. Todo o processo é conduzido por uma tecnologiacriptografada que determina se a imagem está sendo usada para fins de pornografia infantil. O dispositivo então codifica o resultado e cria uma criptografia de segurança junto à imagem e os armazena.</p>
<p></p>
<h2>Privacidade</h2>
<p>A exploração de crianças e adolescentes é um problema mundialmas o que se questiona na iniciativa da Apple é a segurança e privacidade, uma vez que, pequenas mudanças nesse sistema poderiam ser usadas, no futuro, por autoridades governamentais ou hackers para invadir a privacidade do usuário.</p>
<p></p>
<div class="ck-twitter" id="twitter-15">
<blockquote class="twitter-tweet">
<p dir="ltr" lang="en">“If we assume there is no adversarial behavior in the security system, then the system will almost never malfunction. Since confidentiality is only broken when this system malfunctions, the system is secure.”</p>
<p> — Matthew Green (@matthew_d_green)   <a href="https://twitter.com/matthew_d_green/status/1423375588207824898?ref_src=twsrc%5Etfw">August 5, 2021</a>  </p></blockquote>
<p>    <span class="item first"></span>  <span class="item second"></span>  <span class="item third"></span> </p></div>
<p></p>
<p><span></span></p>
<p>O pesquisador de segurança, Matthew Green, da Universidade Johns Hopkins (EUA), avaliou em seu perfil no Twitter que, para a Apple, “é seguro construir sistemas que examinam os telefones dos usuários em busca de conteúdo proibido”.</p>
]]></description>
          <dc:creator><![CDATA[Franciele Rodrigues]]></dc:creator>
          <category><![CDATA[Noticias (NÃO USAR)]]></category>

          

          <media:content url="https://media.bolavip.com/wp-content/uploads/sites/27/2024/07/25090323/gettyimages-455053466_crop1628342660051jpg_242310155-1200x740.webp" type="image/jpeg" medium="image" width="1200" height="740">

                <media:description type="plain"><![CDATA[Inicialmente, a empresa vai realizar o teste nos Estados Unidos]]></media:description>

              </media:content>
        </item>
  
      </channel>
    </rss>