FRFAM.COM >> Science >> Technologie

Supprimer les algorithmes

Lorsque la blogueuse Hannelore a recherché des informations sur les fonds marins, elle a été guidée par des algorithmes vers des vidéos avec de "vraies" sirènes. La désinformation est souvent moins innocente que cela. Que pouvons-nous faire à ce sujet ?

Dans le précédent billet de blog, je suis allé à la recherche des secrets de la mer profonde. Au cours de mes recherches préliminaires, je suis tombé sur quelques bizarreries. Cette fois, ce n'est pas le poisson qui a soulevé un sourcil, mais les articles recommandés par Google. Ce que je cherchais, c'était une explication de la biologie et de la physique sous les vagues. Ce que Google a compris, c'est que j'avais besoin d'un top 40 des animaux bizarres. Peu importe la précision avec laquelle j'ai posé ma question ou la qualité du choix de mes mots clés. Google devait me faire plonger dans ce top 40.

Par curiosité de savoir ce qui se passerait si je cédais, j'ai cliqué sur une telle vidéo. Le film en lui-même ne m'intéressait pas beaucoup. C'était le recommandé- liste qui a attiré mon attention. Des titres y étaient maintenant apparus prétendant avoir des sirènes et des extraterrestres sur le film.

Combien de jeunes Hannelores seraient trompés en ligne que les sirènes sont réelles ?

Je n'ai pas cru à ce genre de bêtises depuis des années, mais il fut un temps où j'aurais déclaré ces vidéos sacrées. Je ne peux pas m'empêcher de me demander combien de jeunes Hannelores plongent sur Internet aujourd'hui pour en savoir un peu plus sur les profondeurs marines, pour se faire berner en pensant que les sirènes sont réelles.

Quelque chose peut également mal tourner en combinaison avec des cookies. C'est pourquoi à chaque fois que j'essaie d'approfondir un peu plus un sujet traité en classe, on me présente une publicité d'un jeune homme qui me conseille d'arrêter l'école et de vendre sur bol.com, alors qu'il me fait visiter sa villa. Je trouve ça terriblement ennuyeux. Je suis loin de l'école fatiguée, mais ce n'est pas le cas de tout le monde. Même s'ils ne peuvent pas vous faire inscrire à leur cours "gratuit" (ils les vendent comme étant gratuits, mais je soupçonne qu'il y a toujours un hic), il y a toujours une chance que vous envisagiez d'abandonner l'école. Cela peut causer des problèmes à de nombreux jeunes à long terme.

Cliquez sur Fermes

Ces exemples m'ont rappelé un documentaire Netflix que j'ai regardé à l'école. Avec le drame nécessaire qui accompagne habituellement les documentaires sur Netflix, il a été expliqué comment les algorithmes sur les réseaux sociaux sont plus diaboliques qu'on ne le pense parfois. Bien que je trouve le film très exagéré, il fait une remarque :les algorithmes fonctionnent mal. Le principe de base de tout algorithme de médias sociaux est d'analyser notre histoire afin de nous proposer à l'avenir du contenu qui nous maintiendra en ligne plus longtemps. Plus nous restons longtemps sur les réseaux sociaux, plus nous voyons de publicités et plus les entreprises de réseaux sociaux gagnent.

Tout d'abord, permettez-moi de parler de la fonctionnalité qui rend le contenu le plus consulté plus susceptible d'être recommandé. Avec l'existence des fermes à clics, c'est un problème supplémentaire. Une entreprise peut monter un film avec, par exemple, 20 recettes que l'on peut préparer avec un simple fer à repasser, puis payer une ferme à clics pour booster le film, et c'est parti, c'est en tête de liste explorer page d'Instagram. Non seulement cela est irritant, mais cela propage également des quantités massives de désinformation. Il suffit de penser aux vidéos de cuisine de Fiveminutescraft ou Tasty, qui montrent souvent des recettes impossibles à travailler. Anne de How To Cook That sur YouTube a toute une série de tels faux démasque.

Vouloir gagner de l'argent est un souhait que je peux comprendre. Surtout si vous souhaitez créer un service gratuit comme Facebook ou YouTube. Garder les gens collés à leurs écrans pendant des heures et créer délibérément des dépendances en suscitant la curiosité avec le clickbait Je ne pense pas que ce soit correct cependant. Surtout pas si votre algorithme est erroné.

L'algorithme de YouTube, par exemple, utilise non seulement votre comportement en ligne pour recommander votre contenu, mais également celui des autres. Cela le rend plus précis d'une part, mais il a aussi des effets secondaires désagréables. Supposons que vous ayez des doutes sur la sécurité du vaccin contre le covid-19. Vous voulez en savoir un peu plus à ce sujet, et allez en ligne avec vos questions. Vous ne tarderez pas à entrer dans les cercles anti-vax. Selon les chiffres, quiconque doute des mesures concernant le corona est apparemment plus enclin à douter de la science médicale en général.

Utopie

L'algorithme lui-même ne fait pas de distinction entre le contenu malveillant et inoffensif. S'il vous fait cliquer sur quelque chose, il a fait son travail. Même s'il a initié un toxicomane à un nouvel anesthésiant, conduit un pédophile à un vlog familial ou initié un jeune au terrorisme. (Cela arrive vraiment, au fait, je ne dis pas ça juste pour attirer votre attention).

Il est temps que les lois soient plus en phase avec la réalité dans laquelle nous vivons maintenant

Ce sont des problèmes qui doivent être résolus. À mon avis, tout l'algorithme devrait être abandonné pour que vous ne voyiez que ce que vous cherchiez, mais c'est purement utopique. Les algorithmes sont responsables d'une grande partie des revenus, et nous ne pouvons pas nous attendre à ce que Google ou Facebook leur dise au revoir.

Ce qui est possible, c'est de placer les algorithmes sous supervision humaine. Ils peuvent distinguer le bien du mal et empêcher les groupes vulnérables de se dégrader. Nous devons simplement amener les entreprises derrière les médias sociaux à franchir cette étape.

Internet est très jeune. Même avec où nous en sommes aujourd'hui, le potentiel est loin d'être atteint. La législation est loin derrière. Il devient progressivement temps d'écrire des lois conformes à la réalité dans laquelle nous vivons désormais.


[]