jueves, 29 de marzo de 2018

CHRISTOPHER WYLIE | CEREBRO DE CAMBRIDGE ANALYTICA

“El Brexit no habría sucedido sin Cambridge Analytica”

La principal fuente del escándalo que ha puesto contra las cuerdas a Facebook explica en una entrevista cómo diseñó el arsenal de la ciberguerra de la nueva derecha populista

Christopher Wylie es un personaje fascinante. Un joven canadiense vegano y gay, como él mismo se define, que diseñó el arsenal de ciberguerra de la nueva ultraderecha americana. Cerebro de Cambridge Analytica (CA), se atribuye un papel decisivo en las victorias de Donald Trump y del Brexit. Puso en marcha la más eficaz maquinaria de cultivo de datos personales al servicio de la política. Sacó al genio de la lámpara y ahora trata de volverlo a encerrar. Este pentito de pelo rosa y feroz inteligencia, de tan solo 28 años, ha decidido enfrentarse a dos entidades que nadie querría como enemigos: la siniestra compañía que contribuyó a crear y la todopoderosa Facebook. Es la principal fuente de las informaciones, publicadas en los últimos días por The Guardian y The New York Times, que han puesto contra las cuerdas al gigante tecnológico. El domingo mantuvo una larga entrevista con un pequeño grupo de periodistas europeos, en el despacho de abogados londinense que le ayuda en esta delicadísima guerra contra su propio pasado.
Pregunta. ¿Cuál ha sido su motivación para hablar?
Respuesta. Mi intención original era exponer el trabajo de Cambridge Analytica, en parte porque yo ayudé a montarla y tengo una responsabilidad. Si no para corregir lo que ya se ha hecho, pues hay cosas que no pueden deshacerse, al menos para informar a las autoridades y a la gente.
P. ¿Qué es lo más grave de cuanto ha revelado?
R. Primero, el hecho de que haya una compañía que es contratista militar y también consejera del presidente de Estados Unidos. En las democracias modernas prohibimos que los militares participen en elecciones, ¿por qué permitimos que contratistas militares participen y actúen como consejeros de algunos de los políticos más importantes del mundo? Que una compañía que tiene clientes militares cree una enorme base de datos de ciudadanos, algunos de ellos recogidos ilegalmente, genera un grave riesgo de borrar las fronteras entre vigilancia doméstica e investigación de mercado convencional. La gente y los legisladores necesitan ponerse al día con la tecnología y comprender qué significan de verdad esas compañías, Facebook u otros, que ganan dinero con los datos personales. Es importante que la gente vea que no es algo abstracto, sino que tienen impactos tangibles.
P. ¿Cuándo se dio cuenta de que era el momento de parar?
R. Fue acumulado. El problema es que me perdí en mi propia curiosidad. No es una excusa, pero tenía presupuestos millonarios, podía hacer toda la investigación que quisiera. Eso era realmente atractivo. Entré en junio de 2013 como director de investigación del grupo SCL [matriz de CA] y empecé a comprender con los meses lo que de verdad hacían. Pero te aclimatas a una cultura empresarial. No es una excusa, pero es así. Haces más y más, cada paso no es mucho mayor que el anterior, hasta que, ¡bang!, has creado una NSA [Agencia de Seguridad Nacional estadounidense] privatizada.
P. Entonces se marchó.
R. Me fui al final de 2014. Fue un año y medio crucial, antes no había compañía. Se fue haciendo más y más tóxico, sobre todo dado lo difíciles que eran Alexander Nix [consejero delegado de CA] y Steve Bannon [exvicepresidente de CA y exestratega jefe de Donald Trump]. Esa libertad para investigar que me atrajo al principio, cuando llegó Bannon se convirtió en investigar para lo que ahora llamamos la derecha alternativa. Bannon venía a Londres todo el tiempo, al menos una vez al mes, y teníamos una conference callcada lunes por la mañana. No hubo un despertar ético repentino. Fue un entorno de trabajo tóxico.
P. ¿Cuál fue su papel en el Brexit? Las últimas revelaciones sugieren que una compañía de datos vinculada a CA desempeñó un papel crucial en el resultado y ayudó a manipular las normas sobre gasto electoral.
R. No trabajé en la campaña por el Brexit pero fui una presencia fantasma, porque conocía a muchos y ayude a montar la empresa que se puso al servicio de la campaña. Sabía todo lo que pasaba. Les puse en contacto y seguí lo que hacían.
P. ¿El Brexit no habría sucedido sin CA?
R. Absolutamente. Es importante porque el referéndum se ganó por menos del 2% del voto y se gastó mucho dinero en publicidad a medida basada en datos personales. Esa cantidad de dinero te compraría miles de millones de impresiones. Si te diriges a un grupo pequeño, podría ser definitivo. Si sumas todos los colectivos que hicieron campaña por el Brexit, era un tercio de todo el gasto. Y estamos ante algo fundamental para el encaje constitucional de este país y para el futuro de Europa. Por eso debe haber una investigación sobre los indicios de que gastaron más de lo legalmente permitido. Se lo dice alguien moderadamente euroescéptico. Pero la gente debe poder confiar en sus instituciones democráticas. Hacer trampas es hacer trampas. Si alguien usa dopaje y llega primero, puede que hubiera ganado sin doparse, pero se le quita la medalla porque engañó. Se le quita la medalla porque cuestiona la integridad de todo el proceso. Hablamos de la integridad de todo el proceso democrático, y se trata del futuro de este país y de Europa en general.
P. ¿En qué otros países europeos trabajó CA?
R. Sé que Italia fue un proyecto cuando yo estaba allí, pero no tengo detalles. No tengo referencias de otros.
Christopher Wylie
Christopher Wylie, durante la entrevista. LIONEL DERIMAIS
P. ¿La ciencia de los datos es peligrosa para nuestra sociedad?
R. Los datos son nuestra nueva electricidad. Son una herramienta. Si hay un cuchillo en la mesa, puedes hacer una comida de estrella Michelin o usarlo como arma para un asesinato. Pero es el mismo objeto. Los datos en sí no son un problema, hay un increíble potencial y cosas asombrosas que podemos hacer con ellos. Pero lo que CA ha expuesto es el fracaso, no solo de nuestros legisladores sino de nosotros como sociedad, al poner los límites de eso.
P. ¿Es tan grande su influencia? ¿Funciona tan bien la predicción a partir de datos?
R. Si miras los últimos cinco años de investigación científica de perfilado psicológico usando datos sociales, valida que puedes perfilar atributos psicológicos. No hay duda de que puedes perfilar a la gente y explotar esa información. Que eso sea adecuado en un proceso democrático es algo que la gente debería pensar. Nos estamos digitalizando como sociedad, y cuanto más lo hacemos más importancia adquieren los datos. Tenemos que aceptar que los datos personales se están convirtiendo en una parte integral de la digitalización de la sociedad. La cuestión no es evitar que se usen datos personales. La pregunta es cuáles son los riesgos de los datos personales y cómo podemos asegurarnos de que son procesados y gestionados de una manera segura para la gente.
P. Que una campaña política se dirija a colectivos concretos indecisos no es algo nuevo…
R. La diferencia es cuando engañas, cuando creas una realidad a medida para alguien, cuando te diriges a alguien porque sabes que es más susceptible de entrar en teorías conspiratorias porque lo has perfilado así, y le llevas a una espiral de noticias falsas. Es diferente que llamar a una puerta determinada identificándote como parte de una campaña. Una de las cosas que hacíamos en Estados Unidos es investigar esa noción del deep state y la paranoia con el Gobierno. Cosas cómo qué pasa si vienen y se llevan tus armas. Puedes perfilar a un grupo de personas muy receptivas a esas teorías conspiratorias, del tipo de que Obama ha desplazado tropas a Texas porque no está dispuesto a irse. Entonces fabricas blogs o webs que parecen noticias y las muestras todo el tiempo a la gente más receptiva a ese pensamiento conspiratorio. Después ven la CNN y no hay nada de lo que ven todo el tiempo en internet, y piensan que la CNN esconde algo. Empezábamos la investigación con métodos cualitativos, focus groups. Un focus group no es generalizable, pero te permite recoger pequeños trozos de cosas que luego puedes testar cuantitativamente.
P. ¿Cuál ha sido el fallo de Facebook en todo esto?
R. Al principio decían que no había infracción porque los usuarios consintieron que se usaran sus datos: en algún lugar de las condiciones de uso decía que tus datos pueden ser explotados por aplicaciones, aunque no las estuvieras usando. Uno de los grandes fracasos de Facebook es legalizar excesivamente sus condiciones de uso y olvidar algo tan importante como es la expectativa razonable del usuario.
P. ¿La gente no ve Facebook como algo público?
R. No hay una dicotomía entre público y privado, es un espectro. El problema es que si dices que solo es privada la comunicación uno a uno, y todo lo demás es libre para todos, si extendemos esa lógica podrían poner cámaras de videovigilancia en tu salón. Esto es el equivalente digital de tu salón. La gente se relaciona en Facebook como si hablara con amigos. No está publicando para que el mundo lo vea. El hecho de que no vayas a comprobar las condiciones de privacidad por defecto no es razón para no respetar esa expectativa razonable de que hay cierto grado de privacidad en lo que publicas.
R. Miran esto como un asunto de relaciones públicas. Si les importara, se habrían sentado conmigo en vez de borrarme de la red.
P. ¿La gente no ha sido demasiado descuidada?
R. No es justo acusar a la población de un país, eso es lavarse las manos. Si lo hicieron 50 millones de personas, creo que muestra que no había una expectativa razonable de que esto fuera a pasar.
P. Pero la cosecha de datos que se hizo no sería imposible hoy, porque Facebook ha cambiado, ¿no es así?
R. Sigue habiendo muchas maneras de explotarlo. No especularía sobre cómo romper la seguridad de Facebook, pero no existe tal cosa como un sistema perfecto.
P. Dada la fluidez de la circulación de datos, ¿hay manera de regularla?
R. Debería estar regulada de la misma manera que un servicio público. Igual que es imposible vivir en una sociedad moderna sin electricidad o agua corriente, es muy difícil vivir tu vida ahora sin acceso a internet, sin móvil. Si estas plataformas son cada vez más esenciales para el día a día, deberíamos mirarlas de otra manera.
P. ¿No apoya el #deleteFacebook, la reciente campaña para salir de la red social?
R. No soy anti-Facebook, ni antidatos, ni antitecnología. Igual que no estoy contra las armas si son para que los soldados protejan a la gente. Pero una persona no puede negociar individualmente una serie de condiciones de uso. No es justo pedir a la gente que entregue absolutamente todo a estas plataformas para conectarse a la vida moderna. No puedes encontrar trabajo si no tienes Linkedin. No puedes licenciarte si no usas Google. No puedes avanzar en la vida sin ellas. Como la vida moderna requiere el uso de esas plataformas, deberían tener una responsabilidad proactiva de cuidado de sus usuarios.
Christopher Wylie
Christopher Wylie, ex director de investigación de Cambridge Analytica. LIONEL DERIMAIS
P. ¿Habría ganado Trump sin CA?
R. Tuvieron un papel, obviamente. Pero el enfoque de lo que hace la compañía para clientes no es necesariamente el correcto. No es solo lo que hicieron a Trump, es lo que hicieron a América. No es una campaña, es un desarrollo gradual.
P. ¿Fabricaron ustedes la llamada derecha alternativa?
R. Exacto. Muchas de las cosas que hace CA no son para un cliente. A Robert Mercer [copropietario de CA y mecenas de la nueva derecha estadounidense] no le importa si es rentable o no. Es multimillonario, no necesita dinero. Poner 15 millones de dólares al año en una empresa no es nada para él. Mucho del trabajo era moldear narrativas que la gente compraría y que harían más fácil conectar con candidatos de la derecha alternativa. La ventaja de eso es que puedes esquivar las regulaciones: eres un inversor y pones dinero en tu empresa, no es una donación política. Steve Bannon tenía una visión para la derecha alternativa. Necesitaba que los republicanos vayan del tradicional “no me gustan los impuestos” al “Obama va a robar mis armas con un ejército secreto”. Para comenzar una tendencia cultural primero necesitas a los pioneros. No vas a empezar una revolución de la derecha alternativa en San Francisco.
P. Su especialidad era la predicción de tendencias de moda. ¿Cómo acabó metido hasta el cuello en política?
R. Es exactamente lo mismo. La política y la moda son los mismo. Son la expresión de la identidad y de tu papel en la sociedad. Puedes pensar en Trump en términos de moda. Yo lo veo igual que las sandalias Crocs. ¿Sabe lo que son? Es una cosa objetivamente fea. Antes de que fueran populares eran feas, y después lo volvieron a ser. Pero cuando eran populares todo el mundo las llevaba. Para mí, Donald Trump es lo mismo que unas sandalias Crocs. Es una estética objetivamente horrorosa, pero la gente sucumbe a las modas. La gente adopta una estética que luego ve las fotos en el futuro y se arrepiente profundamente.
https://elpais.com/internacional/2018/03/26/actualidad/1522058765_703094.html?id_externo_rsoc=FB_CC

jueves, 22 de marzo de 2018

¿La democracia de Google, Facebook y YouTube?

¿La democracia de Google, Facebook y YouTube?

Apuntes sobre el sesgo ideológico de los motores de búsqueda

Si los motores de búsqueda de Internet pueden ser calibrados con sesgos ideológicos, la neutralidad de la red es un deseo pero no una realidad. La política de las grandes empresas de la red, así como su vinculación con gobiernos y grupos poderosos, no contribuye a la libre elección de los contenidos digitales por parte de los ciudadanos.
Febrero 2018

Cuando Mark Zuckerberg decidió ofrecer a las naciones emergentes Internet.org, la rabia no tardó en estallar. Como explica acertadamente Daniel Leisegang en «Facebook salvará al mundo» (publicado en español por Nueva Sociedad), este proyecto surgido en 2013 tenía una mascarada humanitaria: permitir acceso a Internet a una enorme cantidad de ciudadanos del Tercer Mundo que aún están fuera de la aldea global. Por supuesto, la idea era romper las barreras que impiden, por ejemplo, que dos tercios de la población india se puedan unir a Facebook.
Además de la India, el proyecto aspiraba a un total de 100 naciones más. Acusada de violar la neutralidad de la red, Facebook tuvo que cambiarle el nombre: de Internet.org pasó a llamarse Free Basics y de la India debió irse en 2015 debido a la gran cantidad de críticas que recibió. ¿Por qué? Porque Facebook no estaba ofreciendo Internet a secas, sino que se trataba de una aplicación para teléfonos móviles a través de la cual los sectores de menores recursos de ese país podían acceder a una versión recortada de Internet. La idea, originalmente impulsada con el espíritu de que «la conectividad es un derecho humano», terminó exhibiendo que lo que se proponía Zuckerberg es apropiarse de la gigantesca masa de datos de una significativa cantidad de los pobres del mundo (para monetizarlos).
¿Quién decidía qué servicios están disponibles en la aplicación? Según Chris Daniels, el vicepresidente de la compañía, la decisión la toman Facebook, el gobierno de cada país y el operador de telecomunicaciones asociado. Con razón, podríamos afirmar que si «Internet es un derecho humano», con Free Basics Facebook sólo aspira a regular los «derechos humanos recortados» de la mitad de la población mundial (la que no tiene acceso a Internet). Estas políticas que agrandan la brecha digital poco tienen que envidiarle al modelo de Corea del Norte, donde la mayoría sólo tiene a acceso a una modesta Intranet local que apenas tiene 28 páginas webs disponiblescon contenidos fiscalizados por el gobierno de Kim Jong Un (la excepción la constituye, como es obvio, la élite gobernante). Free Basics, que se encuentra en una fase muy embrionaria, sumaba en noviembre de 2016 unos 40 millones de usuarios.
En América Latina, Free Basics ya ha sido implementado en 3 países (sobre veintitrés a nivel mundial que se han unido): Colombia, Guatemala y también Bolivia, cuya inclusión en este programa pone de relieve la insuficiente discusión de los problemas del monopolio de la información en la era digital por parte del populismo continental (o en este caso, su colaboración/subordinación con esos monopolios).
Free Basics no permite ingresar a Google, el buscador más popular de todo el mundo, sino a Bing (el buscador de la competencia, Microsoft, que posee acciones en Facebook). Ahora bien, ¿qué ocurre con el 49,6% (3700 millones de personas) que sí tenemos acceso a Internet a secas, sin (aparentes) restricciones, y del cual más del 90% somos usuarios de Google? ¿Podemos realmente jactarnos de utilizar un Internet realmente libre y «neutral»?
Efecto de la Manipulación de los Motores de Búsqueda
La expresión «Efecto de la Manipulación de los Motores de Búsqueda» (Seme, por sus siglas en inglés), fue utilizada en agosto de 2015 por Robert Epstein y Ronald E. Robertson, dos académicos de estadounidenses que demostraron que se podía decantar el voto de un 20% o más de indecisos en función de los resultados que ofreciera Google. En varios artículos y entrevistas, Epstein se refiere a su estudio y afirma que «en algunos grupos demográficos, hasta un 80% de los votantes» pueden llegar a cambiar sus preferencias electorales según los resultados que ofrece Google. En febrero de 2016, los medios ingleses fueron el terreno de una polémica sobre la injerencia del buscador en las elecciones de los votantes.
Este no es solamente un problema de la democracia occidental. Según la intelectual francesa Barbara Cassin, autora de «Googléame: la segunda misión de los Estados Unidos», Google habría cedido al gobierno de China perfiles de sus usuarios en ese país, «lo cual permitió identificar e incluso arrestar a disidentes». Para ilustrar el sesgo ideológico de los motores de búsqueda de manera clara, Cassin afirma que «si, en un país que no sea China, uno escribe en el Google Tiananmen, obtendrá datos sobre la represión a manifestantes en esa plaza de Beijing, en 1989, que dejó centenares de muertos: pero, si lo escribe en China, no obtendrá más que pacíficas referencias urbanísticas a la plaza».
Por supuesto, Google no admite este sesgo ideológico implícito en su sistema, pero las recientes políticas de la empresa para ayudar a «combatir el terrorismo» en general y al Estado Islámico (ISIS) en particular, exhiben concretamente el modo en que funciona su poder sobre las decisiones de las personas en la actualidad. Es el caso de Jigsaw, un programa piloto de Google basado en su sistema de publicidad personalizada, pero con un objetivo cero comercial, sino político. El plan es localizar usuarios proclives al mensaje del ISIS y ofrecerles una serie de anuncios específicos para ellos, a través de los cuales se los redirige disimuladamente a contenidos que refutan las tesis del ISIS y que podrían ayudar a quitarles de la cabeza la idea de unirse al 'Califato'. Pocos podrían objetar que Google convenza a las personas de rechazar a ISIS, pero es evidente que esto revela que Google está lejos de ser «neutral» u «objetivo» y, por el contrario, llama la atención sobre las posibilidades de manipulación sobre el usuario.
¿Batalla contra las «fake news» o censura 2.0?
Los tiempos han cambiado, y con ellos también lo que hallamos en internet. En 2010, al buscar sobre política en Google, solo un 40% de los resultados los proveían medios de comunicación. Ya en 2016, ese porcentaje rozaba el 70%. El 25 de abril de 2017, Google anunció que había implementado cambios en su servicio de búsqueda para dificultar el acceso de los usuarios a lo que llamaron información de «baja calidad» como «teorías de conspiración» y «noticias falsas» (fake news). Facebook también aplicó una política similar.
Google aseguró que el propósito central del cambio en su algoritmo de búsqueda era proporcionar un mayor control en la identificación de contenido considerado objetable. Ben Gomes, a título de la compañía, declaró que había «mejorado nuestros métodos de evaluación e hizo actualizaciones algorítmicas» para «hacer emerger contenido más autorizado». Google continuó: «actualizamos nuestras directrices para evaluar la calidad de búsqueda para proporcionar ejemplos más detallados de páginas web de baja calidad para que los evaluadores marquen adecuadamente». Estos moderadores tienen instrucciones de marcar «experiencias molestas para el usuario», incluidas páginas que presentan «teorías de conspiración». Según Google, estos cambios rigen a menos que «la consulta indique claramente que el usuario está buscando un punto de vista alternativo».
Desde que Google implementó los cambios en su motor de búsqueda, menos personas han accedido a sitios de noticias de izquierdas, progresistas, u opositoras a la guerra. Con base en la información disponible en análisis de Alexa, algunos de los sitios que han experimentado bajas en el ranking incluyen WikiLeaks, Truthout, Alternet, Counterpunch, Global Research, Consortium News, WSWS, la American Civil Liberties Union y hasta Amnistía Internacional. También en el caso de Facebook, el editor de KRIK, un medio independiente serbio, publicó sus quejas en The New York Times, explicando como cambios para combatir (aparentemente) las fake news, los perjudicaron seriamente.
Llamativamente, poco antes de esa decisión de Google, The Washington Post había publicado un artículo, «Los esfuerzos de propaganda rusos ayudaron a difundir noticias falsas durante las elecciones». Allí se citaba a un grupo anónimo conocido como PropOrNot que compiló una lista de sitios de noticias falsas difundiendo «propaganda rusa». El 7 de abril de 2017, Bloomberg News informó que Google estaba trabajando directamente con The Washington Post para «verificar» los artículos y eliminar las «fake news». Esto fue seguido por la nueva metodología de búsqueda de Google: de los 17 sitios declarados como «noticias falsas» por la lista negra del Washington Post, 14 cayeron en su clasificación mundial. La disminución promedio del alcance global de todos estos sitios es del 25 por ciento, y algunos sitios vieron caerlo hasta un 60 por ciento. La sospecha de que Google se haya aliado con estos medios tradicionales potentes para discriminar a medios alternativos e independientes cobra fuerza al hilar estos hechos.
Además de su propio buscador, Google posee el control de YouTube, empresa que compraron en 2006 (un año después de su fundación). YouTube paga a los productores de videos a partir de una cierta cantidad de visualizaciones por colocar anuncios (ads) sobre ellos, actuando de intermediario entre las grandes empresas y ellos. El cambio más serio de YouTube se produjo a raíz de informes como el de The Wall Street Journal de que los anuncios aparecían en los videos de YouTube que mostraban extremismo y odio. Cuando grandes anunciantes como AT&T y Johnson&Johnson retiraron sus anuncios, YouTube anunció que trataría de hacer que el sitio sea más aceptable para los anunciantes al «adoptar una postura más dura respecto del contenido ofensivo, ofensivo y despectivo». Con estos nuevos algoritmos, Google perjudicó a productores de videos progresistas e independientes, provocando lo que estos denominaron the adpocalypse (apocalipsis de los anuncios). Básicamente, el mecanismo implementado terminó por condenar aquellos contenidos alternativos y empuja a los productores de videos a evitar opiniones o puntos de vista objetables… según los estándares políticos de Google/YouTube.
Basado en su estudio, Epstein había cuestionado que Google y Facebook decidan que noticias son falsas y cuales. Considera que su posición monopólica los transforma en un super-editor periodístico mundial. Las prácticas de Google en relación a los algoritmos que regulan los motores de búsqueda no sólo tuvieron implicancias políticas sino también fines comerciales. En el marco de su regulación anti-trust, la Comisión Europea multó a Google con $ 2.7 mil millones por manipularlos para dirigir a los usuarios a su propio servicio de compras, Google Shopping, haciendo uso de su posición dominante.
La oscuridad de los algoritmos: problema democrático elemental
Cathy O'Neil, cientista de datos y autora del libro «Armas matemáticas de destrucción», alerta sobre la «confianza ciega» depositada en los algoritmos para obtener resultados objetivos. La arquitectura de internet tiene una influencia tremenda sobre lo que se hace y lo que se ve; los algoritmos influyen sobre qué contenido se extiende más en Facebook y cual aparece encima de las búsquedas de Google. Sin embargo, los usuarios no están prevenidos de esto ni capacitados para entender el modo en que se recolectan los datos y el modo en que estos se clasifican. Si Free Basics fue criticado por intentar que los desconectados del Tercer Mundo accedan a una conexión de segunda clase creyendo que Internet es igual a Facebook, no puede negarse que para la ciudadanía digital «de primera clase» Google es prácticamente lo mismo que Internet, pues es la que nos posibilita acceder organizadamente a los contenidos de ella. De este modo, la oscuridad de los algoritmos se constituye en un problema democrático elemental. Tras un decenio de gobiernos populistas o progresistas en América Latina, no se han tomado medidas que controlen el poder de estos monopolios de la información, en tanto que la discusión sobre este tópico se encuentra completamente atrasada. Incluso la izquierda de las naciones desarrollados no ha llegado a proponer un programa de conjunto. Quizás, una de las tareas más urgente consista en politizar esta cuestión.

Nueva Sociedad: http://nuso.org/articulo/la-democracia-de-google-facebook-y-youtube/
http://nuso.org/articulo/la-democracia-de-google-facebook-y-youtube/

Zuckerberg pide perdón y dice estar encantado de testificar en el Congreso

Zuckerberg pide perdón y dice estar encantado de testificar en el Congreso


Washington, 22 mar (EFE).- El fundador de Facebook (NasdaqGS: FB - noticias) , Mark Zuckerberg, pidió perdón y dijo estar feliz de declarar en el Congreso de Estados Unidos por la filtración de datos de unos 50 millones de usuarios de la red social a una consultora británica vinculada a la campaña electoral de 2016 de Donald Trump.
"La verdad es que estoy encantando (de testificar) si esto es lo correcto", dijo Zuckerberg en una entrevista con la cadena CNN.
El máximo responsable de la red social precisó que la compañía está tratando de enviar al Congreso a la persona que tiene más conocimiento del asunto y "si esa persona soy yo, estaré encantado de hacerlo".
La Cámara de Representantes de EEUU, el Parlamento británico y la Eurocámara han pedido a Zuckerberg que comparezca para que aclare pro el escándalo sobre la utilización de datos personales de usuarios de Facebook por la consultora británica Cambridge Analytica, ligada a la campaña del hoy presidente de Estados Unidos.
Cambridge Analytica, que fue contratada por la campaña electoral de Trump en 2016 por más de 6 millones de dólares, presuntamente utilizó esa información para construir un programa informático destinado a predecir las decisiones de los votantes e influir en ellas.
En la entrevista, el responsable de Facebook aseguró que el caso supone "una gran violación de la confianza y realmente lamento que haya sucedido". "Tenemos la responsabilidad de proteger los datos de las personas", subrayó
En un comunicado previo, Zuckerberg anunció el miércoles que la firma investigará a "todas las aplicaciones que accedieron a grandes cantidades de información" antes de 2014, cuando se les impuso limitaciones, y que ampliará sus restricciones a desarrolladores para evitar "abusos".
El escándalo, destapado el pasado sábado por los diarios The New York Times y The Observer, ha castigado a Facebook en bolsa y en lo que va de semana ha perdido casi 50.000 millones de dólares y algunos de sus accionistas se ha querellado colectivamente contra la firma por cometer "actos ilegales" que les provocaron pérdidas bursátiles.
La red social se enfrenta además a la fuerza de un movimiento con miles de seguidores que están borrando su perfil y la aplicación de Facebook de sus dispositivos.
https://es.finance.yahoo.com/noticias/zuckerberg-pide-perd%C3%B3n-encantado-testificar-084200867.html

Mark Zuckerberg ganó 900 millones vendiendo acciones antes del batacazo en bolsa de Facebook


Mark Zuckerberg está pasando los momentos más difíciles de su vida al frente de Facebook. La compañía que creó en la universidad se está enfrentado a un maremagno de acusaciones que amenazan muy seriamente su modelo de negocio. Y por eso, ha sucedido lo que parecía que nunca iba a pasar: el valor de sus acciones se ha desplomado un 13% tras dos jornadas negras. Pero, ¿sabía su CEO lo que estaba por venir? La pregunta tiene su miga tras conocerse que desde que empezó 2018 ha vendido acciones por valor de 900 millones de dólares.
El principal problema de Facebook se llama Cambridge Analytica. Esta empresa especializada en estudios de mercado, marketing digital y campañas de publicidad, fue contratada por la campaña de Donald Trump para las Elecciones Presidenciales de 2016, de las que todos sabemos el resultado: el magnate neoyorquino derrotó contra todo pronóstico a Hillary Clinton. Y lo hizo después de una bestial campaña online.
Según ha revelado The New York Times y The Observer (revista de The Guardian), Cambridge Analytica se hizo con los datos de personales de 50 millones de usuarios de Facebook. Esos datos incluían el nombre y los apellidos, la dirección, sus imágenes, sus ‘me gusta’ las páginas a las que pertenecían, sus hábitos de navegación en la red social, el tiempo que pasaban conectados… Es decir todo lo que hacían en Facebook.
¿Cómo se hizo Cambridge Analytica con toda esa información? Pues gracias a un psicólogo de la Universidad de Cambridge llamado Aleksandr Kogan que creó una aplicación para estudiar la conducta de los usuarios de Facebook. Kogan consiguió permiso de Facebook para publicar su aplicación, que fue utilizada por unas 270.000 personas que creían que estaban participando en un estudio científico avalado por uno de los centros universitarios más prestigiosos del planeta. 
Pero Kogan hizo trampas. Todos los que usaron su aplicación dieron permiso para no dar solo sus datos, sino también los de sus amigos. Así, el psicólogo pudo estudiar a nada más y nada menos que 50 millones de personas. Sí, la red extendida de esos 270.000 usuarios. 
Kogan no solo hizo su estudio, sino que además suministró los datos a Cambrige Analytica, que luego los utilizó para ayudar a Trump. Esa ayuda fueron anuncios hipersegmentados a través de Facebook para conseguir votos para el republicano. ¿Un ejemplo? Por ejemplo, colocar una promesa de Trump para crear empleo y sancionar a China a los ciudadanos de un pueblo en el que hubiera cerrado una fábrica recientemente.
Todas esta información se ha conocido gracias a Christopher Wylie, el ex trabajador de Cambridge Analytica que ha decidido contarlo todo. Esa misma fuente explica que a finales de 2015 Facebook averiguó lo ocurrido, pero que no se mostraron excesivamente preocupados.
Sin embargo en las últimos meses, periodistas del New York Times y de The Observer empezaron a llamar a la red social en busca de su versión de lo ocurrido. El escándalo estaba a punto de explotar, y mientras Mark Zuckerberg vendía acciones de la compañía sin parar. ¿Estaba operando en bolsa con información privilegiada? De momento no hay pruebas que así lo indiquen, pero sí así fuera, Zuckerberg podría haber cometido uno de los delitos más graves para un inversor, que puede conllevar una pena de hasta 20 años de prisión.
Tal y como informa la página Market Watch, el CEO de Facebook ha vendido desde el 1 de enero el equivalente a 900 millones de dólares en acciones de su propia compañía. En la actualidad, Zuckerberg posee el 15% de todos los títulos de su empresa, que por cierto ha perdido 64.000 millones de dólares de valor bursátil en estas dos jornadas negras para su destino.
La compañía, para disipar dudas, comentó a través de su portavoz que esta venta estaba programada para dar forma a la fundación sin ánimo de lucro que Zuckerberg y su mujer crearon en 2015. En concreto, en septiembre se confirmó que la intención era la de conseguir 6.000 millones de dólares en venta de acciones durante los siguientes 18 meses apara esta causa. Los cabos parecen bien atados, pero la sombra queda en el aire.
En las próximas semanas Mark Zuckerberg tendrá que comparecer ante el Congreso de los Estados Unidos, ante el Parlamento Europeo y ante el Parlamento Británico para explicar lo ocurrido. ¿Tendrá que dar cuentas también por vender acciones disponiendo de información privilegiada?
https://es-us.finanzas.yahoo.com/noticias/mark-zuckerberg-gano-900-millones-vendiendo-acciones-antes-del-batacazo-en-bolsa-de-facebook-205106518.html

El cofundador de WhatsApp te anima a que borres tu cuenta de Facebook

Carlos Martinez

Brian Acton, co-founder of WhatsApp (L) and Jan Koum, co-founder and CEO of WhatsApp speak at the WSJD Live conference in Laguna Beach, California October 25, 2016. REUTERS/Mike Blake
Últimamente apareciendo una corriente en internet que invita a los usuarios a dejar Facebook por sus problemas de privacidad y uso de nuestros datos personales. La situación parecía ser un simple movimiento popular con algo de interés, pero todo ha cambiado drásticamente con un simple tweet. Y es que ni más ni menos que el cofundador de WhatsApp Brian Acton ha publicado el tweet "Es hora. #deletefacebook"
Teniendo en cuenta que Facebook compró WhatsApp por 22.000 millones de dólares en 2014, las palabras de Acton desafiando la protección de datos y privacidad de la red social no van a caer en saco roto. Lo interesante es que Acton parece estar profundamente centrado en la causa, ya que anteriormente anunció que había donado 50 millones de dólares a la fundación Signal, una aplicación de mensajería usada por Snowden y que garantiza total seguridad entre los usuarios (algo que tampoco ayuda a WhatsApp).

En su día declaró: "Creemos que hay una oportunidad para actuar en el interés público y hacer una contribución significativa a la sociedad mediante el desarrollo de tecnología sostenible que respete a los usuarios y no dependa de la mercantilización de los datos personales".

El perfil público de Acton en Facebook ha sido ya eliminado, así que veremos si este acto de rebeldía despierta un nuevo movimiento virtual entre los millones de usuarios de la famosa red social. Y tú, ¿temes por tu privacidad usando este tipo de servicios?
https://es-us.finanzas.yahoo.com/noticias/cofundador-whatsapp-te-anima-borres-084700244.html



El fuerte mensaje de Jim Carrey a Facebook tras el escándalo

Con una pintura y un tuit, el actor dejó sentada su opinión respecto al escándalo protagonizado por Facebook y la consultora Cambridge Analytica




Jim Carrey lleva tiempo realizando un boicot a Facebook, se trata de una campaña que se acompaña de algunos tuits y arte producida por él mismo. La filtración de datos de más de 50 millones de usuarios de la red social a la empresa Cambridge Analytica no es la excepción.
Uno de sus últimos tuits fue dedicado a Facebook, con una imagen en blanco y negro de Mark Zuckerberg y un "like" al revés, demostrando su disgusto por la famosa red social que hoy se encuentra en uno de sus episodios más densos.
"¿Con quién compartes tu vida? #regulatefacebook", dice el tuit de Carrey dedicado a Facebook. Se trata de una imagen creada por el propio actor que incluye una declaración que Zuckerberg hizo en 2004: "¡Confían en mí, idiotas!".
Pero esta pintura de Carrey, fue publicada anteriormente en febrero cuando decidió eliminar su perfil de Facebook. En aquella oportunidad era a colores y venía acompañada de un texto más largo:



I’m dumping my @facebook stock and deleting my page because @facebook profited from Russian interference in our elections and they’re still not doing enough to stop it. I encourage all other investors who care about our future to do the same.
"Me desharé de mis inversiones en Facebook y eliminaré mi cuenta porque Facebook se benefició de las intervenciones rusas durante nuestras elecciones y hasta ahora no han hecho lo suficiente para detenerlo. Invito a todos los inversores a los que les importe nuestro futuro a hacer lo mismo. #EliminaAFacebook", escribió el actor canadiense en aquella oportunidad.
Como se sabe, Carrey suele dedicarle pinturas a personajes como la secretaria de prensa de la Casa Blanca, Sarah Sanders, y al presidente estadounidense Donald Trump.
https://elcomercio.pe/redes-sociales/facebook/duro-mensaje-jim-carrey-facebook-escandalo-noticia-506194