Jade Bourdages et Nicolas Sallée

Le DPJ et le contrôle de la jeunesse

Mai 2019: le Québec entier est bouleversé par la mort d’une fillette à Granby, des suites de maltraitance. Que s’est-il donc passé pour que cette petite passe ainsi à travers toutes les mailles de la protection de la jeunesse, demande-t-on? L’événement a donné l’impulsion à la création de la Commission spéciale sur les droits des enfants et la protection de la jeunesse (commission Laurent), chargée de se pencher sur les carences évidentes de la DPJ.

Décembre 2019: Jade Bourdages, professeure à l’École de travail social de l’UQAM, livrait un témoignage remarqué devant la commission Laurent, dans lequel elle parlait des inégalités sociales grandissantes qui surchargent la DPJ. Elle en appelait à «faire entrer de la vie» dans ce système en pleine asphyxie. Peu après, elle et son collègue Nicolas Sallée, professeur au Département de sociologie de l’Université de Montréal, publiaient dans les journaux une lettre ouverte dans laquelle ils soulignaient la nécessité d’élargir le débat sur la protection de la jeunesse, en considérant la parole des chercheurs, des intervenants qui agissent sur le terrain et, surtout, des jeunes eux-mêmes.

Jade Bourdages et Nicolas Sallée mènent ensemble des recherches originales sur la question, confrontant l’histoire et le fonctionnement quotidien des institutions pénales de la jeunesse à l’expérience des jeunes qui les fréquentent.

Un bruit sec et hargneux

Qu’est-ce qui vient après les années 1980?

Je n’ai jamais trop, trop fait confiance au concept de génération. En bonne partie à cause des notions de généralité et d’uniformité, si ce n’est de destin, qu’elle suppose, quand elle ne les impose pas. Ça ne m’a pas empêché de naître à peu près au milieu des Trente Glorieuses, ce qui n’a pas été sans incidences sur ma façon de concevoir le monde, mais aussi, et surtout, de l’éprouver. Et comme le temps, c’est la science qui le dit, n’est pas capable d’exister sans l’espace, ça s’est passé dans une banlieue de Montréal – sur la Rive-Nord si vous voulez le savoir –, ce qui a aussi amené son lot de conséquences.

Peu importe le quai, l’heure aussi, on prend toujours, comme on le sait, le train en marche. Je me suis comme ça retrouvé dans un monde où la grande balise politique, émotionnelle aussi, était la Seconde Guerre mondiale. Tous les adultes autour de moi l’avaient connue de près ou de loin. L’autre grand repère – il y en a trois –, c’était l’URSS, enfin les communistes, je me souviens encore à quel point ils étaient méchants. La dernière des balises, c’était l’avenir. Il était radieux. On n’y pouvait rien, c’était comme ça.

Grandir dans ce cadre-là m’aura surtout donné la chance – selon les jours et les humeurs, c’est une malchance – d’être éduqué pour un monde qui cesserait d’exister dès le début de ma vingtaine. Ça m’a marqué. En plus des temps présents où je baigne comme tout le monde, j’aurai donc eu le plaisir de macérer dans un autre régime, si ce n’est même deux. À la radio, quand une chanson se termine et qu’une autre commence, pour un bref moment, on entend les deux airs en même temps. Mon enfance s’est déroulée à ce moment-là.

Qui a peur des algorithmes?

Présentation du dossier.

Il serait légitime de poser la question d’emblée: pourquoi une revue comme Liberté se pencherait-elle sur les algorithmes, un sujet qui a priori semble loin de nos préoccupations habituelles? Après tout, nous nous occupons d’art et de politique, nous ne sommes pas des observateurs experts du développement des nouvelles technologies. Nous avons, au mieux, des connaissances techniques moyennes. Or, et vous le remarquerez vous-mêmes en lisant ce dossier, les algorithmes façonnent notre vie quotidienne et nos rapports sociaux. Ils influencent les informations auxquelles nous sommes exposés, ils balisent nos choix culturels aussi bien que nos choix de consommation et même nos rapports intimes et amoureux – ils mélangent tout cela comme autant d’éléments indifférenciés, se contentant de faire le tri et d’organiser les préférences; ils traitent les informations, «les données», sans égard à leur nature. Avant même de se pencher sur la mécanique de la bête, on sent que quelque chose nous est progressivement confisqué.

Dans tous les secteurs de production, on se tourne désormais vers les technologies algorithmiques afin de remplacer une main-d’œuvre jugée trop coûteuse ou simplement trop humaine pour faire rouler les engrenages de l’économie. C’est à croire que les principales questions que l’on se pose aujourd’hui dans les hautes sphères des entreprises visent à déterminer quels emplois, quels salaires pourrait-on remplacer par un algorithme. Et partout, de la médecine jusqu’au service à la clientèle en passant par le divertissement et la santé publique, on célèbre avec enthousiasme les «progrès» phénoménaux réalisés dans le domaine de l’intelligence artificielle. On y injecte une quantité apparemment infinie d’expertise et d’argent (y compris des fonds publics), parce que c’est l’avenir, dit-on. Le Québec a d’ailleurs réussi à se positionner dans l’avant-garde de cette industrie à l’échelle globale, avec la création de l’Institut québécois d’intelligence artificielle (Mila), présenté aujourd’hui comme le fleuron des fleurons de notre économie.

Plus récemment, la pandémie a aussi mis en lumière l’empressement des États à déléguer la gestion des risques sociaux et sanitaires à des algorithmes, avec le déploiement d’applications de traçage de contact pour la covid-19. On est cependant passé bien vite sur l’efficacité réelle de ces technologies, ainsi que sur le précédent – le danger – qu’elles créent en matière de surveillance généralisée. On nous répond que, si les gens partout à travers le monde acceptent que les géants du numérique récoltent, partagent et vendent leurs données personnelles tous les jours, de quel droit s’opposeraient-ils à ce qu’on les surveille pour des raisons de santé publique? En somme, puisque le ver est déjà dans la pomme, pourquoi faire des caprices?