NUEVA YORK.- Regular
el lenguaje es difícil incluso en las mejores condiciones y la Internet
está lejos de ser la mejor. Su amalgama de sistemas de regulación por
parte de entidades privadas no satisface a nadie; sin embargo, es
probable que perdure en un futuro previsible.
A
modo de explicación, considere un caso en el que la autoridad (en su
mayoría) está centralizada y el ambiente (en su mayoría) está
controlado: el mío. Soy profesor, y si un estudiante habitualmente
hiciera comentarios ofensivos en clase, me reuniría con esa persona e
intentaría persuadirla para que desistiera.
(Para que quede constancia,
esto nunca me ha pasado).
Si el estudiante continuara con esa conducta,
en algún momento trataría de prohibirle la entrada a mi clase, con el
apoyo de mi universidad.
Sin
embargo, esta solución no es tan sencilla como parece. Tal vez sea
bueno si confía en mi criterio, pero no es fácilmente escalable. Solo
funciona porque tales incidentes son muy raros. No puedo ser eficaz en
mi trabajo si debo dedicar mi tiempo a regular y tratar de modificar el
lenguaje de mis estudiantes.
Y
este enfoque se vuelve más difícil de manejar cuando es adoptado por
las plataformas de Internet. Patreon es un sitio de financiamiento
colectivo que se ha comprometido a persuadir y reformar a los usuarios
que buscan patrocinadores y que participan en lo que considera un
comportamiento ofensivo. Si esos usuarios no se alinean, como lo definen
los estándares de Patreon, este sitio los censurará.
Sin
embargo, los intrusos (y algunos usuarios) nunca confiarán lo
suficiente en el criterio de la compañía, ya sea que Patreon tenga buen
juicio o no. Además, los procesos de juicio de la empresa son difíciles
de escalar, ya que se requiere una intervención personal en cada caso y,
en algún momento, las decisiones serán burocráticas.
Con el tiempo, las
disputas sobre usuarios prohibidos y autorizados distraerán a Patreon
de su función principal de ayudar a las personas a recaudar dinero a
través de Internet.
Un
enfoque alternativo es simplemente dejar que cualquiera use la
plataforma y no involucrarse en la regulación del lenguaje o de los
usuarios.
Hace unos años, la regulación privada era un problema mucho
más pequeño que hoy, incluso si el material extremadamente ofensivo
publicado en Facebook o YouTube a menudo provocaba una orden de
eliminación.
El
problema con estos sistemas es que eran demasiado hospitalarios para
los actores con malas intenciones. El Gobierno ruso, por ejemplo, usó
múltiples plataformas de Internet para tratar de influir en las
elecciones presidenciales de EE.UU. en 2016.
Concuerdo con Nate Silver
en que tales esfuerzos no tuvieron una influencia significativa sobre el
resultado final, pero ese no es el punto. Si las plataformas se
consideran hospitalarias para personas malintencionadas, incluidos los
enemigos de Estados Unidos y la democracia, esas plataformas comenzarán a
perder su legitimidad ante el público y sus representantes electos.
Un
enfoque alternativo es que las compañías de plataformas regulen por
algoritmo. Por ejemplo, si una publicación se refiere a nazis y usa
términos despectivos para los judíos, el algoritmo podría prohibir esas
publicaciones en forma automática. Puede que funcione bien al principio,
pero eventualmente los carteles ofensivos descubrirán cómo burlar los
algoritmos.
Luego está el problema de los falsos positivos:
publicaciones que el algoritmo identifica como ofensivas, pero no lo
son. El resultado es que el juicio humano seguirá siendo un complemento
crucial para cualquier algoritmo, que tendrá que ajustarse con
regularidad.
A
medida que estos procesos evolucionen, cada plataforma de Internet no
será coherente o justa entre sus muchos usuarios, ya que algunos
eludirán las consecuencias de ser ofensivos o peligrosos, mientras que
otros pueden ser censurados o expulsados por razones insuficientes.
Desde hace poco, Facebook ha dedicado muchos recursos a la regulación
del lenguaje en su plataforma. Sin embargo, los usos no deseados de la
plataforma apenas han desaparecido, especialmente fuera de EE.UU.
Además, la necesidad del juicio humano hace que los algoritmos sean cada
vez más costosos y difíciles de escalar. A medida que Facebook crece y
se extiende a más regiones e idiomas, se vuelve más difícil encontrar
personas capaces de aplicar lo que Facebook considera que son los
estándares adecuados.
Me
gustaría sugerir un simple trilema. Cuando se trata de plataformas
privadas y regulación del lenguaje, puede elegir dos de tres opciones:
escalabilidad, efectividad y consistencia. No puede tener las tres.
Además, este trilema sugiere que nosotros, ya sea como usuarios,
ciudadanos o incluso administradores de las plataformas en sí, nunca
estaremos contentos con la forma en que se regula el lenguaje en
Internet.
Un
punto de vista, que puede parecer cínico, es que vale la pena tener
plataformas, por lo que deberían apaciguarnos al menos tratando de
regular con eficacia, aunque ambos sabemos que realmente no tendrán
éxito. Para el 2019, no veo una mejor solución.
Otro punto de vista es
que estaríamos mejor con la situación de hace unos años, cuando la
regulación del lenguaje en las plataformas no era un problema tan
grande. Después de todo, los estadounidenses no nos volvemos locos
cuando nos enteramos de que Amazon vende copias del libro "Mein Kampf".
El
problema es que una vez que se aprende sobre lo que no se puede tener
-la regulación del lenguaje que es escalable, coherente y hostil para
los agentes malintencionados- es difícil acostumbrarse a ese hecho. En
el futuro, es probable que veamos a las compañías de plataformas
esforzándose cada vez más y sus críticos se vuelvan cada vez más
fuertes.
No hay comentarios:
Publicar un comentario