Plan de Google para 2024 es MONITOREAR y CENSURAR a las personas
El ex CEO de Google, Eric Schmidt, publicó recientemente un artículo de opinión en el que presentó un plan de "seis puntos" para combatir la desinformación. Algunas de las ideas de Schmidt incluyen bloquear las VPN y "autenticar" a los usuarios de todas las cuentas de redes sociales.
También advirtió que los legisladores, reguladores y empresas tecnológicas de Estados Unidos deben escuchar sus recomendaciones "antes de que sea demasiado tarde".
El artículo de Schmidt, que fue publicado por MIT Technology Review, advirtió que el próximo año será uno de cambios políticos "sísmicos". Agregó que las elecciones presidenciales de Estados Unidos de 2024 podrían ser "el año electoral más grande de la historia", y que las democracias "enfrentan una prueba histórica en todo el mundo".
Si bien menciona otras elecciones que se celebrarán en todo el mundo, lo que realmente le preocupa son las elecciones presidenciales en Estados Unidos. (Relacionado: La Casa Blanca obligó a YouTube a censurar la "desinformación" sobre el COVID-19, según revelan documentos internos).
Según Schmidt, el público debe tener cuidado con el espectro de la "desinformación", que ve en todas partes en la contienda electoral. En cuanto a la tecnología, Schmidt habló sobre el problema con la inteligencia artificial (IA) y las redes sociales.
Vigilar y censurar a las personas con el pretexto de luchar contra la desinformación
En su artículo, Schmidt detalló sus sugerencias en la formulación de políticas.
Schmidt dijo que los usuarios de las redes sociales deben ser verificados y autenticados como humanos para que puedan ser "responsables" tanto por las plataformas como por las autoridades. Su tono es cauteloso y agregó que esto no significa "divulgar" las identidades de las personas.
Al menos, no a todo el mundo. Puede haber excepciones, como cuando se violan las plataformas de redes sociales y si las fuerzas del orden lo requieren si se viola alguna ley.
Schmidt también afirmó que estas plataformas deberían convertirse en ojos que todo lo ven conociendo todas las fuentes. Explicó que conocer la fuente del contenido y la hora en que ingresó a la red puede mejorar la confianza y la seguridad.
Advirtió que incluso si el tráfico de VPN puede disuadir la detección, "las plataformas pueden intensificar los esfuerzos para mejorar la identificación de las VPN".
Cuando Schmidt advirtió sobre los deepfakes, sacó a relucir la orden ejecutiva de IA del presidente Joe Biden. Alentó la identificación de deepfakes, que pueden generar temores de censura de memes o contenido de parodia.
Schmidt dijo que una forma de que las plataformas comiencen a hacer esto es escanear una base de datos existente de imágenes y decirle al usuario si una imagen no tiene historial, como lo que está haciendo Google Imágenes.
Los sistemas de IA pueden ser entrenados para detectar las firmas de los deepfakes, utilizando grandes conjuntos de "imágenes veraces contrastadas con imágenes etiquetadas como falsas". Un software como este supuestamente puede ayudar a los usuarios a confirmar si una imagen tiene una alta probabilidad de ser un deepfake, similar al "riesgo de spam" que un usuario tiene en su teléfono cuando recibe llamadas de ciertos números.
Schmidt también dijo que las empresas deberían "filtrar a los anunciantes" compartiendo una lista de anunciantes de confianza en todas las plataformas.
También afirmó que la mano de obra puede ayudar a prevenir la "desinformación". Pero si bien los humanos reales pueden ayudar, Schmidt dijo que aún habrá errores, y algunos contenidos no confiables pueden superar las protecciones.
Citó a Wikipedia como un ejemplo de cómo la "desinformación" puede ser vigilada por humanos que siguen "reglas de contenido claras y muy detalladas".
Según Schmidt, las empresas de redes sociales también deben publicar reglas de calidad para el contenido e implementarlas equipando a sus equipos de confianza y seguridad y, potencialmente, expandiendo esos equipos al proporcionar herramientas a los voluntarios.
Schmidt sugirió que queda por ver cómo los humanos pueden evitar que el material generado por IA provenga de los chatbots, pero la tarea será menos desalentadora si se aplican sistemas de IA entrenados para detectar y filtrar dicho contenido.
Por último, Schmidt afirmó que la "investigación" debería tener más financiación.
Dijo que para que todas las medidas "funcionen a escala", el compromiso a largo plazo debe comenzar ahora.
"Mi grupo filantrópico está trabajando para ayudar a crear marcos de prueba gratuitos y de código abierto para muchos grupos de confianza y seguridad de IA", concluyó Schmidt, revelando sus verdaderas intenciones para prevenir la "desinformación".
Fuente: Natural News
¿Cuál es tu reacción?