Pour donner aux universitaires spécialisées dans l’IA et à d’autres le temps bien mérité – et attendu – sous les projecteurs, TechCrunch lance une série d’entretiens se concentrant sur des femmes remarquables qui ont contribué à la révolution de l’IA.
Anika Collier Navaroli est chercheuse principale au Tow Middle for Digital Journalism de l’Université de Columbia et Expertise Public Voices Fellow du projet OpEd, organisé en collaboration avec la Fondation MacArthur.
Elle est connue pour son travail de recherche et de plaidoyer dans le domaine de la technologie. Auparavant, elle a travaillé comme praticienne en matière de race et de technologie au Stanford Middle on Philanthropy and Civil Society. Avant cela, elle dirigeait Belief & Security chez Twitch et Twitter. Navaroli est peut-être mieux connue pour son témoignage au Congrès sur Twitter, où elle a parlé des avertissements ignorés concernant la violence imminente sur les réseaux sociaux qui ont précédé ce qui allait devenir l’attaque du Capitole le 6 janvier.
En bref, remark avez-vous débuté dans l’IA ? Qu’est-ce qui vous a attiré dans le domaine ?
Il y a environ 20 ans, je travaillais comme commis à la rédaction dans la salle de rédaction du journal de ma ville natale pendant l’été, lorsque le journal est passé au numérique. À l’époque, j’étais étudiant en journalisme. Les websites de médias sociaux comme Fb envahissaient mon campus et je suis devenu obsédé par l’idée de comprendre remark les lois fondées sur la planche à billets évolueraient avec les applied sciences émergentes. Cette curiosité m’a conduit à étudier le droit, où j’ai migré vers Twitter, étudié le droit et la politique des médias et observé les mouvements du Printemps arabe et d’Occupy Wall Avenue. J’ai rassemblé tout cela et rédigé mon mémoire de maîtrise sur la manière dont les nouvelles applied sciences transformaient la manière dont l’data circulait et dont la société exerçait la liberté d’expression.
Après avoir obtenu mon diplôme, j’ai travaillé dans quelques cupboards d’avocats, puis j’ai rejoint le Information & Society Analysis Institute pour diriger les recherches du nouveau groupe de réflexion sur ce qu’on appelait alors le « massive knowledge », les droits civils et l’équité. Mon travail là-bas a examiné remark les premiers systèmes d’IA tels que les logiciels de reconnaissance faciale, les outils de police prédictive et les algorithmes d’évaluation des risques de la justice pénale reproduisaient les préjugés et créaient des conséquences involontaires qui affectaient les communautés marginalisées. J’ai ensuite travaillé chez Colour of Change et dirigé le premier audit des droits civiques d’une entreprise technologique, développé le manuel de l’organisation pour les campagnes de responsabilisation technologique et plaidé en faveur de changements de politique technologique auprès des gouvernements et des régulateurs. À partir de là, je suis devenu un haut responsable politique au sein des équipes Confiance et Sécurité de Twitter et Twitch.
De quel travail êtes-vous le plus fier dans le domaine de l’IA ?
Je suis le plus fier de mon travail au sein d’entreprises technologiques qui utilisent des politiques pour modifier pratiquement l’équilibre des pouvoirs et corriger les préjugés au sein de la tradition et des systèmes algorithmiques producteurs de connaissances. Sur Twitter, j’ai mené quelques campagnes pour vérifier les personnes qui, de manière choquante, avaient été auparavant exclues du processus de vérification exclusif, notamment les femmes noires, les personnes de couleur et les personnes queer. Cela comprenait également d’éminents spécialistes de l’IA comme Safiya Noble, Alondra Nelson, Timnit Gebru et Meredith Broussard. C’était en 2020, lorsque Twitter était encore Twitter. À l’époque, la vérification signifiait que votre nom et votre contenu faisaient partie de l’algorithme de base de Twitter, automobile les tweets de comptes vérifiés étaient injectés dans les recommandations, les résultats de recherche, les chronologies d’accueil et contribuaient à la création de tendances. Ainsi, travailler pour vérifier de nouvelles personnes ayant des views différentes sur l’IA a fondamentalement modifié leurs voix en tant que leaders d’opinion et a élevé de nouvelles idées dans la dialog publique à des moments vraiment critiques.
Je suis également très fier des recherches que j’ai menées à Stanford et qui ont abouti à Noir avec modération. Lorsque je travaillais au sein d’entreprises technologiques, j’ai également remarqué que personne n’écrivait ou ne parlait vraiment des expériences que je vivais quotidiennement en tant que personne noire travaillant dans le domaine de la confiance et de la sécurité. Ainsi, lorsque j’ai quitté l’industrie et suis retourné dans le monde universitaire, j’ai décidé de parler avec des travailleurs noirs de la technologie et de mettre en lumière leurs histoires. La recherche s’est avérée la première du style et a stimulé autant de conversations nouvelles et importantes sur les expériences des employés technologiques aux identités marginalisées.
Remark relever les défis de l’industrie technologique à prédominance masculine et, par extension, de l’industrie de l’IA à prédominance masculine ?
En tant que femme queer noire, naviguer dans des espaces dominés par les hommes et dans des espaces où je suis altérée a fait partie de tout mon parcours de vie. Dans le domaine de la technologie et de l’IA, je pense que l’facet le plus difficile a été ce que j’appelle dans mes recherches le « travail identitaire forcé ». J’ai inventé le terme pour décrire des conditions fréquentes dans lesquelles des employés aux identités marginalisées sont traités comme les voix et/ou les représentants de communautés entières qui partagent leur identité.
En raison des enjeux élevés liés au développement de nouvelles applied sciences comme l’IA, il peut parfois sembler presque unattainable d’échapper à ce travail. J’ai dû apprendre à me fixer des limites très précises quant aux questions sur lesquelles j’étais prêt à m’engager et à quel second.
Quels sont les problèmes les plus urgents auxquels l’IA est confrontée à mesure qu’elle évolue ?
Selon reportage d’investigation, les modèles d’IA générative actuels ont englouti toutes les données sur Web et seront bientôt à court docket de données disponibles à dévorer. Ainsi, les plus grandes entreprises d’IA au monde se tournent vers les données synthétiques, ou les informations générées par l’IA elle-même, plutôt que par les humains, pour continuer à former leurs systèmes.
L’idée m’a emmené dans un terrier de lapin. Alors, j’ai récemment écrit un Article d’opinion arguant que je pense que cette utilisation de données synthétiques comme données de formation est l’un des problèmes éthiques les plus urgents auxquels est confronté le nouveau développement de l’IA. Les systèmes d’IA générative ont déjà montré que, sur la base de leurs données de formation originales, leur résultat est de reproduire des biais et de créer de fausses informations. Ainsi, la voie de formation de nouveaux systèmes avec des données synthétiques signifierait constamment réinjecter dans le système des résultats biaisés et inexacts sous forme de nouvelles données de formation. je décrit cela pourrait potentiellement dégénérer en une boucle de rétroaction vers l’enfer.
Depuis que j’ai écrit cet article, Mark Zuckerberg loué que le chatbot Llama 3 mis à jour de Meta était partiellement alimenté par des données synthétiques et était le produit d’IA générative « le plus clever » du marché.
Quels sont les problèmes dont les utilisateurs d’IA devraient être conscients ?
L’IA est une partie omniprésente de nos vies actuelles, depuis la vérification orthographique et les flux de médias sociaux jusqu’aux chatbots et générateurs d’photographs. À bien des égards, la société est devenue le cobaye pour les expériences de cette nouvelle technologie non testée. Mais les utilisateurs de l’IA ne devraient pas se sentir impuissants.
J’ai été argumenter que les défenseurs de la technologie devraient se rassembler et organiser les utilisateurs de l’IA pour appeler à une pause populaire sur l’IA. Je pense que la Writers Guild of America a montré qu’avec de l’organisation, une motion collective et une détermination patiente, les gens peuvent s’unir pour créer des limites significatives pour l’utilisation des applied sciences de l’IA. Je crois également que si nous faisons une pause maintenant pour corriger les erreurs du passé et créer de nouvelles directives et réglementations éthiques, l’IA ne doit pas nécessairement devenir un menace existentielle à notre avenir.
Quelle est la meilleure façon de développer l’IA de manière responsable?
Mon expérience de travail au sein d’entreprises technologiques m’a montré à quel level il est necessary de savoir qui est présent dans la salle pour rédiger les politiques, présenter les arguments et prendre les décisions. Mon parcours m’a également montré que j’ai développé les compétences dont j’avais besoin pour réussir dans l’industrie technologique en commençant dans une école de journalisme. Je travaille maintenant de nouveau à la Columbia Journalism Faculty et je souhaite former la prochaine génération de personnes qui effectueront le travail de responsabilité technologique et développeront de manière responsable l’IA, à la fois au sein des entreprises technologiques et en tant que chiens de garde externes.
Je pense que l’école (de journalisme) donne aux gens une formation distinctive pour interroger l’data, rechercher la vérité, considérer plusieurs factors de vue, créer des arguments logiques et distiller les faits et la réalité à partir d’opinions et de désinformations. Je pense que c’est une base solide pour les personnes qui seront chargées d’écrire les règles de ce que les prochaines itérations de l’IA peuvent et ne peuvent pas faire. Et j’ai hâte de créer une voie plus pavée pour ceux qui viendront ensuite.
Je pense également qu’en plus de travailleurs qualifiés en matière de confiance et de sécurité, l’industrie de l’IA a besoin d’une réglementation externe. Aux États-Unis, je argumenter que cela devrait prendre la forme d’une nouvelle agence chargée de réglementer les entreprises technologiques américaines, avec le pouvoir d’établir et d’appliquer des normes de base en matière de sécurité et de confidentialité. J’aimerais également continuer à travailler pour connecter les régulateurs actuels et futurs avec d’anciens travailleurs de la technologie qui peuvent aider ceux qui sont au pouvoir à poser les bonnes questions et à créer de nouvelles options nuancées et pratiques.