Guerra digital - Cambio

Lucía Burbano, de la revista mexicana Cambio, me envió algunas preguntas por correo electrónico acerca del fenómeno de las fake news y sus cada vez más habituales usos organizados, y ha incluido una parte de ellas en su artículo titulado “Guerra digital” (ver en pdf), publicado hace una semana.

Hablamos sobre el uso de este tipo de herramientas de desinformación en esferas militares o en la política, de las posibilidades que tenemos para diferencias noticias verdaderas de noticias falsas en un entorno en el que las barreras a la publicación descienden para todos, del papel de los llamados verificadores o fact-checkers y de la responsabilidad de las propias redes sociales, del uso creciente de bots y herramientas basadas en inteligencia artificial, y de la necesidad de desarrollar el pensamiento crítico a través de la enseñanza para intentar enfrentarnos a esta problemática en el futuro.

Precisamente hoy aparecen noticias sobre el gobierno indio que, ante la escalada de linchamientos y palizas a ciudadanos inocentes derivados de rumores maliciosos difundidos a través de WhatsApp en determinadas zonas rurales (que incluso llegaron a provocar, en algunos casos, la suspensión temporal del acceso a internet en regiones completas), reclama a la compañía que detenga estos rumores, como si realmente fuese el papel de un canal de comunicación decidir sobre la veracidad o falsedad de las conversaciones que se desarrollan a su través. ¿Pediría seriamente ese ministro a una compañía telefónica que detuviese las conversaciones entre sus abonados “si dicen mentiras”? Basta con esa comparación para entender la barbaridad de la que estamos hablando: WhatsApp no solo es un canal de comunicación equivalente a una compañía telefónica, sino que, además, gestiona la información que se intercambia a su través con protocolos robustos de cifrado, con claves de un solo uso que ni siquiera la propia compañía conoce, lo que convierte en prácticamente imposible cualquier tipo de monitorización preventiva. La compañía podrá intentar colaborar, pero realmente, el problema únicamente se puede solucionar, y no de manera completa, cuando se incida en el desarrollo del pensamiento crítico desde las primeras etapas de la educación, con campañas de información o con mensajes que inviten a la población a comprobar la veracidad de sus fuentes.

A continuación, siguiendo mi práctica habitual, el texto completo del cuestionario que intercambié con Lucía:

P. ¿Es la propaganda digital una continuación de los métodos empleados tradicionalmente en el ejército y la política? O las características de la red (velocidad y facilidad para compartir un mensaje, omisión de fuentes o falta de verificación de las mismas) hace que cuando hablamos de la manipulación intencionada del mensaje, este sea más peligroso?

R. En realidad, hablamos del aprovechamiento de una vulnerabilidad de nuestra sociedad: hemos desarrollado una serie de herramientas, las redes sociales, que cuentan con sus propios códigos y mecanismos para remunerar la participación, tales como Likes, comentarios y número de seguidores, pero hemos renunciado a educar a la sociedad en su uso. Durante generaciones, hemos acostumbrado a la sociedad a que si algo estaba en letra impresa o salía en televisión, era confiable, y ahora nos encontramos con un descenso brutal en las barreras de entrada a la publicación, con un porcentaje cada vez más elevado de personas que acceden a las noticias a través de herramientas como Facebook o Twitter, y con una indefensión de una sociedad que nunca ha desarrollado el pensamiento crítico. Las redes sociales pueden desarrollar mecanismos para intentar mejorar la situación, pero la gran realidad es que el problema solo se solucionará generacionalmente, y únicamente si incorporamos en la educación mecanismos para desarrollar el pensamiento crítico, la comprobación de fuentes, la verificación de información, etc. que a día de hoy, únicamente se enseñan en las facultades de periodismo.

 

P. Las líneas entre una noticia verdadera y una falsa están cada vez más difuminadas. ¿Cómo podemos distinguirlas para evitar que la manipulación o desinformación gobiernen las decisiones del ciudadano/votante? ¿Somos inmunes a la manipulación? ¿O el componente subjetivo y emocional de muchos de los debates e informaciones falsas que se comparten en la red es tan elevado que estamos perdiendo la capacidad de ser más críticos?

R. Cuando las barreras de entrada a la publicación descienden drásticamente, el papel de la credibilidad y la reputación de las fuentes crece. En general, tenemos que aprender a desarrollar el pensamiento crítico, lo que implica verificar la fuente, tratar de localizar referencias adicionales, contrastar con otras fuentes, etc. El problema es que desde nuestra educación más básica, partimos de contarle a los niños que “la verdad” está en las páginas de un libro, en una única fuente, y eso lleva a que no dominen herramientas como la búsqueda, y tiendan a quedarse, por ejemplo, sistemáticamente con el primer resultado de Google, sin más reflexión. Tendríamos que prohibir los libros de texto, introducir el smartphone en el aula, y pedir a los niños que buscasen los contenidos en la red, para así educarles en estrategias de búsqueda, cualificación de fuentes y desarrollo de pensamiento crítico. Esa modificación de la enseñanza resulta cada vez más importante, y un auténtico reto que tenemos como sociedad.

 

P. Existen varios servicios o sitios web que identifican las noticias e informaciones que son falsas. ¿Cómo funcionan y son la solución?

R. Los fact-checkers o verificadores son una buena solución, pero lamentablemente, dado que trabajan con personas, tienden a ser lentos, válidos para una verificación con perspectiva o para parar la difusión de un rumor, pero no para evitar que se inicie o que se difunda durante un tiempo. Su importancia es creciente, pero no sustituyen al desarrollo de un juicio o pensamiento crítico.

 

P. Dado que las redes sociales y otras plataformas cuentan con un número de usuarios superior al de cualquier medio de comunicación tradicional o digital, ¿deberían estas empresas monitorear, eliminar o sancionar de forma más exhaustiva a los usuarios que propagan la desinformación o que generan cuentan falsas?

R. Las redes sociales pueden llevar a cabo muchas acciones correctoras, como controlar, por ejemplo, la difusión de rumores, falsedades, o mensajes relacionados con el discurso del odio. Sin embargo, es peligroso confiar en las acciones de estas compañías, dado que hacerlo equivale a ponerlas en una posición de árbitros que no les debería corresponder, y menos cuando hablamos de cuestiones que tienen que ver con el pensamiento o la opinión. Obviamente, las compañías que gestionan las redes sociales deberían evitar acciones coordinadas o comportamientos marcadamente antisociales, como deberían evitar la difamación, la calumnia o el libelo, pero eso no es tan sencillo como parece en un entorno social. Del mismo modo que no podemos controlar lo que una persona le dice a otra en la barra de un bar, resulta difícil pensar que podamos hacerlo con todas las comunicaciones en redes sociales: habrá que diferenciar el ámbito y el tipo de comunicación, la intencionalidad, la escala a la que se produce y, sobre todo, educar a la sociedad en el uso de su herramienta, con todo lo que ello conlleva.

 

P. ¿Cuándo empezaron a emplearse la Inteligencia Artificial y los algoritmos para crear bots? ¿Por qué son estos tan dañinos y no se contrarrestan con las mismas armas?

R. Los bots no son necesariamente dañinos. Hay bots muy útiles, muy interesantes, y estarán en nuestra vida en el futuro con total seguridad: muchas de nuestras interacciones a lo largo del día tendrán un chatbot o bot conversacional al otro lado. Lo que puede ser dañino es el uso de la tecnología para crear bots que simulen usuarios reales: es un fraude, supone un problema de gestión para las compañías que gestionan las redes o para las que se anuncian en ellas, y nos pone en una situación similar a la de la película Blade Runner, con compañías desarrollando bots fraudulentos y otras compañías tratando de detectarlos mediante todo tipo de tecnologías basadas en machine learning e inteligencia artificial. Al principio, los bots eran simples cuentas que seguían a un usuario,. Cuando se las empezó a descartar por inactivas, empezaron a desarrollar pautas de actividad más o menos aleatorias, como seguir a otros usuarios, retuitear o dar Like a algunas publicaciones, etc. Ahora, su actividad es cada vez más difícil de prever, y por tanto, son más difíciles de identificar. Eso supone una “escalada armamentística” en el desarrollo de machine learning cuyo resultado no es fácil de prever.

 

P. Algunos de estos mensajes se propagan desde los propios gobiernos con el fin de desestabilizar procesos electorales en otros países. Aunque las injerencias políticas no son nada nuevo, dado que el sector digital se mueve más rápido que el sistema legal, ¿nos encontramos ante una nueva tipología de crisis diplomática?

R. Sin duda, es un arma que muchos estados están utilizando, unos con más escrúpulos que otros, y que habría que tratar como un problema serio. Que un presidente de los Estados Unidos se comporte como un troll impresentable y carente de todo sentido común en las redes sociales es mucho más que una anécdota, supone un problema serio, y debería llevarnos a revisar las reglas de la diplomacia. Que algunos países consideren razonable atacar las infraestructuras de otros o lanzar campañas de manipulación a través de la red supone algo muy serio, que es preciso elevar al estatus de conflicto internacional, y apelar a los foros más importantes en este ámbito.

 

P. Pensando en clave futuro, ¿la propaganda digital va a seguir creciendo y evolucionando o entrarán en escena mecanismos de censura o filtros que diluyan su presencia?

R. La propaganda digital y las fake news persistirán hasta que, como sociedad, seamos capaces de desarrollar mecanismos de pensamiento y razonamiento crítico, de introducirlos en el curriculum educativo y de convertirlos en un cimiento de la interacción social.

 

Buy Instagram followersAl hilo del último escándalo de Facebook y de las medidas de la compañía para intentar mejorar su reputación, me parece muy interesante esta editorial en The New York Times, titulada Facebook is not the problem. Lax privacy rules are, en la que se plantea que el problema no está tanto en las redes sociales como tales, sino en el uso que hacemos de ellas, y en concreto, en la falta de un consenso claro y bien definido sobre el concepto de privacidad.

El concepto de laxitud me provoca una reflexión que he hecho ya en otras ocasiones, a medida que vamos presenciando el ciclo de vida de más y más redes o aplicaciones sociales a lo largo del tiempo: que el problema no está en las redes como tales, sino en el tipo de uso que se hace de ellas, particularmente a partir de su fase de popularización. En muchos sentidos, parece que es imposible para una red o aplicación social crecer en número de usuarios sin perder de manera drástica su esencia, sin convertirse en un enorme montón de basura utilitarista, mayormente falsa y artificial.

El caso de Instagram, durante mucho tiempo considerada “la niña bonita de las aplicaciones sociales”, la que había sido capaz de desarrollar un modelo de publicidad más sano y menos intrusivo, o a la que algunos veían incluso capaz de solucionar muchos de los defectos que se achacaban a la propia Facebook. En sus orígenes, Instagram responde a un modelo clarísimo: una app creada por entusiastas de la fotografía, que diseñan unos filtros muy buenos (nada parecido a lo que había antes, que consistían básicamente en burdas formas de elevar todos los parámetros hasta límites absurdos que generaban resultados en muchos casos casi grotescos), que el usuario aplicaba, veía mejorar su foto y, de manera natural, quería compartir el resultado. La transición del modelo de uso y, sobre todo, la adopción por parte de un público más joven generó algunos cambios: la fotografía, en muchos casos, se convirtió en un pretexto para la interacción: un joven, en muchos casos, podía hacer una fotografía a una simple pared o un simple selfie sin ningún interés particular, porque el interés estaba no tanto en la imagen, sino en el hilo de comentarios que surgía posteriormente.

El problema surge cuando, a raíz de su fuerte crecimiento, Instagram pasa a una fase de fortísima instrumentalización. No he tenido todavía oportunidad de conocer a Kevin Systrom, co-fundador de Instagram, pero dudo que se encuentre cómodo con el resultado de esa fase. En un espacio de tiempo relativamente corto, Instagram se mercantilizó hasta el límite, y sobre todo, perdió todo atisbo de autenticidad. Las herramientas parasitarias excedían de manera burda lo que la propia Instagram ofrecía como business tools, como si un uso corporativo no pudiese ser compatible con un entorno socialmente genuino. La compra de followers se convirtió en moneda común, del mismo modo que lo hicieron los esquemas de follow/unfollow o el uso de bots y herramientas abiertamente parasitarias como Instagress o Archie para obtener más seguidores. Instagram se convirtió en un entorno tóxico en el que todo estaba justificado con tal de llegar a la página inicial: collective accounts, comment pods, círculos de supuestos influencers que no eran, en realidad, más que simples mercenarios… cuando Instagram quiso reaccionar a semejante instrumentalización, a tanta basura absurda, se había convertido en una caricatura de sí misma, en un ecosistema completamente viciado e irrespirable que generaba auténticos monstruos, una parodia de lo que debería ser un entorno social sano. Los cierres de Instagress o de Archie, forzados por la propia Instagram a partir de escándalo iniciado por la “salida del armario social” de la instagrammer  Essena O’Neill, no arreglaron la cuestión: simplemente, aparecieron otras herramientas similares, que determinaron que el trabajo de Instagram de localizar esos bots se convirtiese en casi detectivesco, en un contexto en el que la función de la red social ya se había pervertido, y muchos ya no concebían la idea de estar en ella sin inflacionar sus desmesurados egos a base de bots y herramientas similares.

La caída de Instagram en este proceso, que muy posiblemente haya reportado a la compañía cuantiosos beneficios gracias a su crecimiento, pero ha tenido un coste incalculable en términos de credibilidad, ha tenido muchos elementos comunes con casos anteriores como el de Twitter, en el que la compañía se mostró incapaz de contener determinados fenómenos que terminaron por convertirse en fundamentales en su percepción y propuesta de valor. Entre tener una red interesantísima para mantenerse informado, y un entorno completamente tóxico y falseado a base de bots y parásitos similares va una distancia, en en mundo de lo social, muy pequeña. Es tan sencillo como lo que permites que se desarrolle o no sobre tu plataforma. La frontera entre permitir un uso razonable que fomente la creación de contenidos, y convertirse en un “vale todo” donde todo es falso y podrido es muy fina, y no ha habido, por el momento, redes sociales que la hayan sabido manejar bien. En el caso de Instagram, sin una acción clara y contundente que elimine todos los fake followers, castigue a quienes los usen y elimine a los reincidentes, o penalice todo intento por subvertir el correcto funcionamiento de la plataforma, no habrá ninguna posibilidad de salir de la dinámica actual, de un proceso que yo denomino “corrupción social”, equivalente a un cáncer, a una podredumbre. Y el problema, una vez más, no vendrá de las acciones de Instagram, sino de su inacción: de su incapacidad por prevenir y entender el funcionamiento de la naturaleza humana. Una fuerza que, sin límites ni restricciones, es capaz de destruir y convertir en completamente insostenible cualquier propuesta de valor.

 

“Tu margen es mi oportunidad” Jeff Bezos y su carrera de armas de Denken Über

En 2004 Jeff Bezos decía This focus on free cash flow isn’t new for Amazon.com. We made it clear in our 1997 letter to shareholders—our first as a public company—that when “forced to choose between optimizing GAAP accounting and maximizing the present value of future cash flows, we’ll take the cash flows” y con este foco se convirtieron en el estándar de facto para comparar precios online… nadie que compre online deja de revisar al menos el precio del producto en Amazon aún sin saber que, dinámicamente, este precio es capaz de cambiar 20 veces en un sólo día y tener una variación superior al 10%

Ups, sorpresa, el margen de la competencia es su oportunidad pero eso no significa que sea el precio más barato existente; de hecho si uno toma en cuenta variables como el costo de la suscripción a Prime, el costo de envíos y otras cosas quizás… descubra que Amazon no es el más barato producto por producto.

De hecho la competencia entre retailers por conocer los precios de la competencia y modificar los precios propios está tan automatizada y algoritmizada que Amazon pidió una patente para un sistema de encriptación de precios para que sólo puedan ser vistos por humanos y no por bots…

Amazon BOTS inteligencia artificial en precios

Hay una nota realmente buena en Reuters sobre la carrera de armas que hay entre los retailers globales analizando precios de todos los productos en catálogo de cada uno de sus competidores en rangos de tiempo que no sobrepasan los 20 minutos para no ser más caros ni por 0.50$ con tecnología increíble de crawling e insights. [Amazon trounces rivals in battle of the shopping ‘bots’]

Ahora, lo interesante de eso es como Amazon puede jugar con los márgenes de ganancia ya que casi no las genera y el mercado se lo premia, mientras la competencia debe mostrar ganancias o su capitalización de mercado sufre ¿imaginan a Walmart mostrando décimas de 1% de ganancia para ganar mercado y que su acción no se auto-destruya?

Y mientras los consumidores aprovechan esta guerra de precios (que repito, no es lineal y muchas veces usan esos algoritmos para aumentar márgenes) la cadena de proveedores está empezando a sentir la presión de una forma realmente extra [Amazon and Walmart are in an all-out price war that is terrifying America’s biggest brands] y que, sinceramente, no sé cuan sostenible es en el largo plazo.

Siendo honestos, CPG es una competencia pura y dura de precios pero en otros productos la gente está dispuesta a pagar más por la “experiencia sin fricción” de estos gigantes y ahí es donde ellos ganan mercado sobre el resto.

Creo que el corolario a “Tu margen es mi oportunidad” debería ser “mientras el mercado me permita enfocarme en el crecimiento a largo plazo, porque sino no puedo sostenerlo” más que el nuevo “Profits are what you get when you run out of ideas.” – Bezos

No robots allowedEl gobernador de Nueva York, Andrew Cuomo, ha dictado una ley que prohibe expresamente el uso de bots para la adquisición de entradas de espectáculos online, una práctica que amenazaba con convertirse en común: los revendedores esperaban a que las entradas de un espectáculo determinado con alta demanda prevista se pusiesen a la venta, lanzaban programas que llevaban a cabo la compra del número máximo de entradas autorizadas por persona, y repetían el proceso simulando operaciones independientes hasta acabar rápidamente con las entradas disponibles, que eran posteriormente puestas a la venta a través de otros canales y con precios superiores.

La reventa de entradas como tal estaba ya perseguida, pero con consideración de falta. Tras la aprobación de la ley, utilizar bots para hacerse con entradas para la reventa será considerado delito, y podrá conllevar multas abultadas o penas de cárcel.

Si bien resulta difícil argumentar en contra de una ley que sanciona a quienes llevan a cabo comportamientos claramente etiquetables como abusivos, la idea de legislación que prohibe el uso de robots es, como mínimo, llamativa, hasta el punto que hace no demasiado tiempo la habríamos considerado propia de los relatos de ciencia-ficción. Sin embargo, solo hace falta un mínimo análisis para darse cuenta de que en realidad, lo que se castiga no es específicamente el uso de robots para llevar a cabo una operación de compra a través de la red, sino su utilización abusiva para hacerse co un elevado número de entradas. El matiz no es despreciable: resulta muy posible que ante situaciones de este tipo, de demanda que excede ampliamente a la oferta disponible, muchas personas comiencen a utilizar asistentes de compra que hagan precisamente eso: esperar a la apertura de la ventana de adquisición, y disparar la operación tantas veces como haga falta hasta conseguir pasar a través de un servidor en muchos casos saturado, y adquirir las entradas deseadas con los criterios establecidos. Ese tipo de comportamientos, que ya se convirtieron en comunes en páginas de subastas online hace ya bastantes años o incluso en los mercados financieros, no son objeto de persecución, con lo cual hablar estrictamente de una ley que prohibe el uso de robots no sería correcto.

En el caso de la venta de entradas online, la cuestión, en cualquier caso, entraña ciertos problemas: no es lo mismo dimensionar un servidor para seres humanos que, con toda la variabilidad derivada de su comportamiento humano, entran en él a efectuar una operación, que hacerlo para un montón de bots que acuden todos a la misma hora y lanzan todos ellos sus operaciones con precisión absoluta. Si el uso de bots de este tipo llega a generalizarse, la idea de asignar entradas en modo “first come, first served”, “primero en llegar” o “póngase a la cola” podría llegar a tener relativamente poco sentido, y no sería extraño que hubiese que pensar en diseñar nuevos mecanismos, que podrían ir desde la clásica lotería mediante números aleatorios que se lleva a cabo una vez cerrada la ventana de tiempo, para poder tener así cuantificada la demanda con precisión, hasta otros muchos tipos de posibilidades.

Con la evolución de los patrones de consumo, es más que posible que terminemos teniendo a nuestra disposición un cierto número de robots que emplearemos habitualmente para todo tipo de operaciones rutinarias en la red, desde asistentes virtuales para optimizar precios, cestas de la compra o gastos de envío, hasta otros para trabajar en entornos de precios dinámicos o variables. ¿Quieres viajar a un sitio? Desarrolla un robot que lleve a cabo un muestreo de los precios del billete que has definido, que mantenga las reservas y las vaya renovando mientras no aparezca ninguna más barata, y que termine por adquirirla al menor precio que haya llegado a tener. En realidad, sería relativamente sencillo disponer de una especie de botón de Amazon que configurar en cada ocasión, y que llevase a cabo esa tarea. Y en caso de generalizarse el uso de este tipo de bots, los sistemas de ticketing podrían llegar a tener serios problemas, lo que sin duda generaría polémicas y afectaría a la manera en que hoy entendemos este tipo de transacciones – que ya de por sí, a día de hoy, sería muy difícil calificar como óptimas.

Piensa en transacciones que lleves a cabo de manera habitual, en mecanismos con los que tengas familiaridad, bien en tu industria, o que utilices en tu vida privada. Ahora, trata de imaginártelos llevados a cabo con la exactitud en la definición y la precisión que un robot permite: a medida que la idea de “ponga un robot en su vida” comienza a convertirse en más lógica y sencilla, hay muchos mecanismos transaccionales que considerábamos plenamente establecidos que, seguramente, van a tener que empezar a plantearse una redefinición. Habrá que estar atentos a esta evolución.

 

Facebook se acercó a finales de 2015 a los casi 1.600 millones, un incremento anual del 17 por ciento, y no es la única red social con gran actividad, pues los 310 millones de usuarios mensuales activos de Twitter publican unas 347.222 veces por minuto y a diario desde Instagram se publican más de 80 millones de fotos. ¿Pero son los usuarios conscientes de los riesgos que corren si no toman las medidas de necesarias?

La cantidad de datos que vierten los internautas sobre su vida en la redes es inmensa, como señalan desde Kaspersky Lab, y aunque puede que muchos no sean significativos, otros son de gran importancia y así deben ser tratados.

Las redes sociales, “con sus propias reglas, funcionan como una extensión del mundo real (con un gran impacto en nuestras vidas offline)”, por lo que es necesario tener en cuenta estas cinco sencillas reglas propuestas por Kaspersky Lab:

  1. No hagas caso a los trols

Los trols de Internet son agitadores que se unen a las conversaciones para provocar a los usuarios. Puedes encontrar trols en cualquier parte: en foros, chats y en cualquier plataforma de comunicación online.

¿Cómo deberías hablar a los trols? ¡No lo hagas! Tan solo ignóralos. Muchas personas muerden el anzuelo y empiezan polémicos debates tratando de explicar sus puntos de vista y malgastando una gran cantidad de tiempo y de esfuerzo en vano.

  1. No publiques ni compartas nada ilegal

Los Emiratos Árabes Unidos y Nueva Zelanda tienen leyes que castigan con severidad el troleo y el ciberacoso con medidas que van desde multas de 35.000 dólares a penas de prisión.

Sin embargo, en muchos países te pueden multar o incluso te puedes enfrentar a consecuencias más graves por publicar, compartir o realizar otras acciones en las redes sociales. Por ejemplo, dos hombres fueron condenados a cuatro años de prisión por haber creado un evento en Facebook en el que se fomentaba una revuelta. Un hombre de Bangladesh fue sentenciado a prisión por bromear sobre la muerte del primer ministro. Así que será mejor que conozcas las leyes de tu país y que las tengas en cuenta cuando publiques o compartas algo en Facebook o en Twitter.

  1. No compartas scam

A menudo, los scammers engañan a sus víctimas con historias impactantes sobre bebés que mueren, cachorros que se ahogan o veteranos en apuros. Las publicaciones de scam van por las redes sociales disfrazadas de llamadas de ayuda. De hecho, se utilizan para el robo financiero, el phishing y para la difusión de malware.

Dichos mensajes se comparten muchas veces, pero una gran cantidad son scams. Las llamadas de ayuda de verdad suelen estar creadas por tu familia, amigos y amigos de amigos. Los concursos se organizan desde las páginas oficiales de las compañías y no los organizan extraños.

Por ello es mejor estar alerta y comprobar cada publicación antes de hacer clic en las opciones “Me gusta” o “Compartir”. ¿No quieres comprobar cada publicación de este tipo? Pues es mejor que no hagas clic, no te arriesgues a ser una víctima de scam o a que tus amigos lo sean.

  1. Piensa en la reacción de los lectores

Puede que tengas a tus compañeros de trabajo, jefes y clientes entre tus conexiones de Facebook e Instagram. Por ejemplo, cuando solicitas un nuevo puesto de trabajo, desde recursos humanos querrán comprobar tus perfiles en las redes sociales. Plantéate qué quieres que vean y, más importante aún, qué no quieres que vean.

También deberías considerar detenidamente lo que publicas en las páginas de otras personas y en cuentas oficiales como las de empresas o universidades. Por ejemplo, en 2013 un hombre de Pensilvania fue despedido por “hacer un cumplido” a una estudiante online. Si necesitas ayuda para hacer privadas tus publicaciones, echa un vistazo a nuestras entradas sobre la configuración de seguridad de Facebook, Twitter, Instagram, LinkedIn y Tumblr.

  1. No conviertas tus datos privados en públicos

Muchas redes sociales invitan a los usuarios a añadir la ubicación de una foto o de una publicación, o muestran los lugares que has visitado. Si te interesa un evento, la red social puede notificárselo a tus amigos por si quieren ir contigo.

Por defecto, cualquiera puede acceder a tus datos y los delincuentes tienen mil y un métodos para usar esos datos, desde colarse en tu casa a robar tu identidad digital. Por ello, recomendamos que escondas este tipo de información a los extraños con la ayuda de los ajustes de privacidad.

Tampoco añadas a perfiles a tu lista de amigos de forma indiscriminada: las personas que envían peticiones de amistad para conectar contigo pueden ser bots, trols o, incluso, delincuentes. Incluso si Facebook te informa de que ambos tenéis muchos amigos en común, no aceptes ninguna petición hasta asegurarte de que se trata realmente de alguien conocido.

The post Cinco reglas de oro para los usuarios de redes sociales appeared first on Revista Merca2.0.