Etiqueta: 230 Act

  • Derechos de propiedad y tecnología centralizada: Un debate pendiente.

    Los derechos de propiedad sobre plataformas tecnológicas centralizadas, como Telegram, Twitter o Facebook, están en constante discusión debido a la complejidad de su naturaleza y a las responsabilidades que los gobiernos y la sociedad intentan imponerles. La carta pública del CEO de Telegram está reflejando el problema. A continuación, planteamos el debate pendiente donde se detallan algunos puntos clave que reflejan las controversias actuales en torno a los derechos de propiedad de estas plataformas, su responsabilidad sobre los contenidos de terceros y su capacidad para mantenerse neutrales:

    1. Responsabilidad sobre los contenidos de terceros en plataformas centralizadas:
    Punto de discusión: Las plataformas tecnológicas centralizadas que permiten la creación, subida y divulgación de contenido de terceros suelen estar en la mira de los reguladores por su papel en la moderación o falta de control sobre ese contenido. Esto genera una tensión entre la propiedad de la plataforma y la responsabilidad por lo que se publica en ella.
    Argumento a favor de la responsabilidad: Se argumenta que si una plataforma tiene un propietario, y este tiene la capacidad de controlar, moderar o eliminar contenido, entonces debería asumir responsabilidad sobre lo que se publica, al menos en un marco similar al de un editor que controla sus publicaciones.
    Argumento en contra de la responsabilidad: Las plataformas tecnológicas se defienden argumentando que son meros intermediarios y no responsables de las acciones de los usuarios, similar a un proveedor de servicios de internet que no es responsable del contenido que sus clientes transmiten.

    2. Neutralidad de plataformas con un propietario que puede moderar o eliminar contenido:
    Punto de discusión: La neutralidad de una plataforma es cuestionable si el propietario o la empresa tiene la capacidad de intervenir sobre el contenido, ya sea eliminando, filtrando o destacando información según su criterio o los de terceros (como gobiernos).
    Implicaciones: Si una plataforma puede editar, eliminar o priorizar contenido, difícilmente puede considerarse completamente neutral. La capacidad de moderar implica una forma de control editorial, que entra en conflicto con la idea de ser solo un intermediario.
    Ejemplo: El uso de algoritmos sesgados para promover ciertos contenidos o la eliminación de mensajes que violan las políticas internas (o presiones externas) muestra que hay un nivel de intervención que aleja a la plataforma de ser un espacio neutral.

    3. Dilema entre la libertad de expresión y la propiedad privada en la moderación de contenidos:
    – Punto de discusión: Las plataformas centralizadas a menudo enfrentan la contradicción de ser espacios para la libre expresión mientras, al mismo tiempo, ejercen su derecho de propiedad para moderar lo que se publica. Esto crea un conflicto sobre hasta qué punto se puede limitar el contenido sin afectar derechos fundamentales.
    – Casos relevantes: La exclusión de contenido políticamente sensible o controvertido ha levantado debates sobre si estas plataformas actúan bajo sus propios intereses, los de sus accionistas, o en respuesta a presiones externas, especialmente gubernamentales.

     4. El impacto de la legislación en la autonomía de la propiedad tecnológica:
    Punto de discusión: Leyes como la Sección 230 del Communications Decency Act en Estados Unidos, que protege a las plataformas de la responsabilidad sobre el contenido de terceros, han sido clave para su desarrollo. Sin embargo, con la creciente presión para moderar más activamente, estas leyes están en riesgo de ser modificadas o reinterpretadas, lo que afectaría la autonomía de las plataformas.
    Consecuencias potenciales: Cambios en estas leyes pueden llevar a una mayor responsabilidad para los propietarios, limitando su capacidad de operar sin intervenir activamente sobre el contenido, lo que comprometería el principio de neutralidad y afectaría la propiedad privada al obligar a los dueños a cumplir con estándares más estrictos.

    5. Tecnología centralizada vs. descentralizada y el control del contenido:
    Punto de discusión: Las plataformas centralizadas tienen un punto de control claro —los dueños— lo que permite la moderación directa del contenido. En contraste, las plataformas descentralizadas (como Nostr o Bitcoin) distribuyen el control y la responsabilidad, lo que dificulta la intervención tanto interna como externa.
    Implicaciones para la propiedad: En las plataformas descentralizadas, no hay un único propietario que pueda ser presionado o responsabilizado, lo que protege mejor la libertad de los usuarios y la neutralidad del contenido, pero también dificulta el control y la eliminación de contenido ilegal o perjudicial.

    6. El rol del propietario en la creación de reglas y políticas internas:
    Punto de discusión: Como propietarios, los dueños de plataformas tienen el derecho de establecer políticas y reglas sobre lo que está permitido en su espacio. Sin embargo, estas reglas pueden reflejar los sesgos o intereses de los propietarios, lo que genera una tensión entre la propiedad privada y la percepción pública de neutralidad.
    Ejemplo: Las reglas de contenido sobre drogas, violencia o discurso de odio son, en última instancia, decisiones de propiedad, pero pueden ser vistas como actos de censura, dependiendo del contexto y la aplicación.

    El debate sobre la responsabilidad de las plataformas tecnológicas centralizadas y su neutralidad gira en torno a la tensión entre los derechos de propiedad de sus dueños y las expectativas de responsabilidad social y legal. A medida que las tecnologías avanzan y los gobiernos buscan más control sobre el flujo de información, estas discusiones se vuelven cada vez más relevantes, desafiando los conceptos tradicionales de propiedad y responsabilidad en un entorno digital.

  • Congresistas de EE.UU. interrogan a jefes de gigantes tecnológicos, piden reformas

    Los políticos acusaron a Facebook, Twitter y Google de alimentar ideologías extremistas.

    Por Voz de América – Redacción

    WASHINGTON DC – Legisladores del la Cámara de Representantes estadounidense interrogaron el jueves a los directores de las principales compañías tecnológicas (Facebook, Google y Twitter) del país, y les acusaron de no hacer lo suficiente para evitar la desinformación, por lo que insistieron en regular las prácticas de las empresas de internet.

    “Su modelo de negocios se ha convertido en el problema y se acabó la era de la autorregulación, es hora de legislar para hacerlos responsables”, sentenció el congresista Mike Pallone en una audiencia en la que los directores ejecutivos de estas tres compañías participaron de manera virtual.

    Es la primera vez que Mark Zuckberger (Facebook), Jack Dorsey (Twitter) y Sundar Pichai (Google) testifican frente al Congreso desde el asalto al Capitolio por parte de seguidores del expresidente Donald Trump. Los legisladores culparon a los empresarios de alimentar las ideologías extremistas que llevaron a los disturbios y de agravar la división en el país.

    «Su modelo de negocios se ha convertido en el problema y se acabó la era de la autorregulación». Mike Pallone, congresista de EE. UU.

    “El ataque y el movimiento que lo motivó comenzó y fue alimentado por sus plataformas”, señaló el congresista Michael Doyle.

    Ante la pregunta de si ellos consideraban que las redes sociales tuvieron o no responsabilidad de los ataques, solo el CEO de Twitter respondió que sí. El director de Alphabet, la compañía matriz de Google, sostuvo que se trataba de una pregunta compleja pero que la compañía tenía cierto tipo de responsabilidad.

    Por su parte, Zuckerberg evadió la respuesta y culpó directamente al exmandatario republicano y a los insurrectos que se tomaron el edificio del Congreso. “Creo que el expresidente debe responsabilizarse por sus palabras”, dijo el jefe de Facebook.

    Los legisladores del Congreso de EE.UU. han intentado por varios años imponer legislación que regule a las compañías tecnológicas, a quienes acusan de promover desinformación, ideologías extremistas y, en el caso de Facebook, de mantener un monopolio sobre el mercado.

    Con respecto a la libertad de expresión y el contenido que se publica en redes sociales, el debate en el Capitolio se centra en la sección 230 de la ley de Decencia en la Comunicación, que evita que las compañías tecnológicas sean responsables legalmente de los contenidos de los usuarios. Los congresistas están presionando por reformar esa ley.

    El CEO de Facebook presentó en la audiencia una propuesta para modificar la legislación, en la que las compañías podrían tener inmunidad legal respecto a lo que los usuarios publiquen sólo si se adhieren a políticas que permitan eliminar material dañino. Tanto Dorsey como Pichai vieron con buenos ojos la propuesta, agregando que debe ser pulida.

  • ¿Deberían las redes sociales perder su protección legal ante las demandas?

    La suspensión del presidente Donald Trump por parte de varias plataformas no cayó bien en Europa. Muchos líderes lo consideran una violación a la libertad de expresión. Debaten si el Estado debería regular a las redes sociales.

    Por Jamie Dettmer

    La decisión de los gigantes de las redes sociales de moderar más el contenido, junto con el veto al presidente Donald Trump y a algunos de sus simpatizantes que ya no pueden publicar, está intensificando un debate en Europa sobre cómo regular a plataformas como Facebook y Twitter.

    El candente debate se ha enfocado principalmente en si los gobiernos deberían intervenir para censurar o proteger la libertad de expresión, o si se debería proteger las opiniones para que no sea bloqueadas o eliminadas por los gigantes tecnológicos, sin importar cuan ofensiva sean las opiniones.

    Pero un creciente número de líderes europeos ven una tercera vía para reducir las noticias falsas, el discurso de odio, la desinformación y los ataques personales venenosos, al tratar a las redes sociales como proveedores y no como dueños de plataformas neutrales que conectan a los consumidores con creadores de contenido digital, sino como editores con derecho propio.

    Esto ayudaría a reducir los temores de censura estatal de la libertad de expresión, dicen.

    Enmendar las leyes para hacerlos legalmente responsables, así como los periódicos y otros medios de comunicación tradicionales son responsabilizados por el contenido que publican, haría a las compañías de redes sociales responsables ante demandas de difamación y calumnias.

    Al bloquear el contenido y prohibir a algunos usuarios, las compañías de redes sociales han fortalecido sin querer el argumento de que ellos son proveedores de contenido, así como ahora están tomando un rol mayor como editores de opinión.

    “Creo que hay un debate real sobre el estatus de las grandes compañías de internet y si deberían ser identificadas como simples plataformas o como editores, porque cuando empieza a editorializar, entonces estás en un mundo diferente”, dijo a un comité parlamentario el primer ministro británico, Boris Johnson, la semana pasada.

    Muchos líderes de la Unión Europea han criticado a las compañías de redes sociales por suprimir a Trump y sus seguidores de sus plataformas. Facebook ha bloqueado o borrado contenido que usan la frase “Paren el robo”, que se refiere a los falsos alegatos de fraude electoral. Twitter dice que ha suspendido más de 70.000 cuentas de creyentes de teorías conspirativas de QAnon, que creen que Trump libra una guerra secreta contra una élite de satánicos y pedófilos en el gobierno, el sector privado y los medios.

    La presidente alemana Angela Merkel expresó su preocupación sobre bloquear y borrar contenidos, diciendo que era excesivo.

    “El derecho a la libertad de opinión es de importancia fundamental”, dijo su portavoz, Steffen Seibert, a los periodistas.

    Algunos países dirigidos por gobiernos populistas, como Polonia, están considerando elaborar legislación que le prohibiría a Facebook, Twitter y otras empresas de redes sociales censurar opiniones, por temor que los censuren a ellos.

    Redes sociales y medios de comunicación

    Pero la presión política también está aumentando en otros países para que el Estado regule la libertad de expresión y que modere las plataformas de redes sociales.

    La idea de que las compañías de redes sociales deberían estar sujetas a regulaciones similares a las de prensa, radio o televisión no es nueva. Los dueños de periódicos se han enfurecido porque las plataformas de redes sociales son tratadas diferente bajo la ley en relación a los medios tradicionales.

    El año pasado, Facebook rechazó la idea de que las plataformas de redes sociales sean tratadas como medios tradicionales, argumentando en un reporte que deberían ser ubicadas en una categoría a medio camino entre los periódicos y la industria de las telecomunicaciones.

    La compañía estuvo de acuerdo en que nuevas reglas regulatorias son necesarias, pero argumentó que deberían enfocarse en el monitoreo y en mecanismos que las empresas pondrían a funcionar para bloquear publicaciones “dañinas”, en lugar de restricciones sobre las compañías que publican ciertos tipos de discursos o que sean responsabilizados por el contenido.

    El cabildeo de Johnson para que se trate a los gigantes de las redes sociales como medios tradicionales está teniendo eco en Estados Unidos, donde el Congreso aprobó la Ley de Decencia en las Comunicaciones, en 1996. Esta medida permitió a las empresas regularse a sí mismas y las protegió de ser responsabilizadas por la mayoría del contenido que se publica en sus plataformas.

    La Sección 230 de la ley dice: “Ningún proveedor o usuario de un servicio interactivo de computadora deberá ser tratado como un editor o difusor de cualquier información publicada por otro proveedor de contenido de información”.

    Irónicamente, la Sección 230 ha generado la desaprobación de tanto Trump como del presidente electo Joe Biden. Ambos han pedido que se anule dicho artículo, lo cual haría a las redes sociales legalmente responsable por lo que la gente publica, dejándolos vulnerables ante demandas por difamación y calumnias.

    La semana pasada, Biden le dijo al diario The New York Times, que el favorecía que el escudo que protege a las empresas de internet sea “revocado, inmediatamente”.