« A View on the Transition from. Academia to Finance » Catherine O’Neil (en 2008 bien avant de découvrir le machine learning, big data, etc) ▻https://www.ams.org/notices/200806/tx080600700p.pdf
« A View on the Transition from. Academia to Finance » Catherine O’Neil (en 2008 bien avant de découvrir le machine learning, big data, etc) ▻https://www.ams.org/notices/200806/tx080600700p.pdf
Je me souviens avoir lu cet article à l’époque. Ce passage notamment m’avait marqué :
About the money: many mathematicians who talk to me about moving to finance are genuinely worried about the potentially corruptive power of money. I take that fear very seriously, and I think
I probably would have applied to the D. E. Shaw
group earlier if I hadn’t experienced it myself.
(...)
I think one can resist being corrupted by money by keeping a perspective and maintaining personal boundaries. I personally give a certain amount of my paycheck to my favorite grass-roots charity. I thereby see working here as a fantastic and rare opportunity to have a great job and to improve the world in some small way simultaneously.
J’avais trouvé ça tellement facile de se justifier de gagner énormément d’argent par simplement donner à des œuvres caritatives, ça m’avait choqué de naïveté/cynisme.
Amusant de se rendre compte maintenant que c’était écrit par Cathy O’Neil, comme quoi les gens changent.
c’est une copine, aujourd’hui professeure a Harvard, qui m’avait pointé vers l’article, il y a quelques années (alors que j’écrivais une note de lecture, il y a 2 ans ►https://freakonometrics.hypotheses.org/49175 - ou la version publiée ▻https://freakonometrics.hypotheses.org/files/2018/11/Risques-108_Charpentier_ONeil.pdf) ! elle était très critique envers ce « retournement de veste »
Cathy O’Neil : pour une éthique des algorithmes
▻https://www.franceculture.fr/emissions/la-methode-scientifique/cathy-oneil-pour-une-ethique-des-algorithmes
Quel est son parcours et d’où lui est venue sa passion pour les mathématiques ? Pourquoi appelle-t-elle les algorithmes des “armes de destruction mathématiques” ? Comment ces nouveaux pouvoirs algorithmiques transforment-ils les pratiques professionnelles de la société ? Quoi de plus neutre qu’un ordinateur ? Quoi de plus a priori objectif qu’une suite de calculs, qu’une série d’opérations mathématiques ? Quoi de plus éloigné d’une opinion finalement qu’un algorithme ? Et bien tout justement. Parce (...)
#algorithme #domination #solutionnisme #discrimination #profiling
La dictature des algorithmes (Monkey parle avec Cathy O’Neil)
▻https://www.youtube.com/watch?v=5BzJSvX6nXA&feature=share
Les algorithmes : ils sont partout, décident pour nous, répètent nos erreurs et sans qu’on le sache, ils nous nuisent ... Cathy O’Neil, data scientist et militante aux États-Unis, dénonce les dérives de ces armes de destruction mathématique.
#algorithme #terms #criminalité #prédictif #discrimination #profiling
au début des images numériques nombre d’entre elles étaient fabriquées « à la main » à moindre prix avec un label création assistée par ordinateur ! idem l’algo tripatouillé « à la main »
« quand le passé définit le futur »... ceci a quand même ses limites : à savoir que ce livre sorti en V.F. en ce mois de décembre 2018, est sorti en V.O. depuis septembre 2016, et qu’il n’a pu produire les avancements des algorithmes depuis...
Awake on the Autobahn: Academics, algorithms and accountability
▻https://medium.com/@geomblog/awake-on-the-autobahn-academics-algorithms-and-accountability-6ec0dda8f73a
Cathy O’Neil has been one of the most important public voices raising concerns about the indiscriminate use of algorithms in decision making and the danger this presents to society. For many of us, her book ‘Weapons of Math Destruction’ has been a powerful motivator for our work and for our students, which makes it all the more puzzling that she wrote a New York Times Op-Ed that accuses academics of “being asleep at the wheel” when it comes to talking and writing about the role of algorithms in society. Here are four ways in which her article incorrectly frames the issues and misrepresents the underlying facts.
The Ivory Tower Can’t Keep Ignoring Tech, by Cathy O’Neil - The New York Times
▻https://www.nytimes.com/2017/11/14/opinion/academia-tech-algorithms.html
et une conférence sur le sujet
▻https://fatconference.org
un institut qui ouvre (aujourd’hui même) à NUY
▻https://ainowinstitute.org
Rights & Liberties
As artificial intelligence and related technologies are used to make determinations and predictions in high stakes domains such as criminal justice, law enforcement, housing, hiring, and education, they have the potential to impact basic rights and liberties in profound ways. AI Now is partnering with the #ACLU and other stakeholders to better understand and address these impacts.
Labor & Automation
Bias & Inclusion
Safety & Critical Infrastructure
The age of the algorithm
An episode of 99 percent invisible about how the uncritical acceptance and design of algorithms can have terrible consequences. With Cathy O’Neil. 23mn.
And many companies that build and market these algorithms like to talk about how objective they are, claiming they remove human error and bias from complex decision-making.
But in reality, every algorithm reflects the choices of its human designer.
▻http://99percentinvisible.org/episode/the-age-of-the-algorithm
Data Scientist Cathy O’Neil : « Algorithms Are #Opinions Embedded in #Code » | naked capitalism
▻https://www.nakedcapitalism.com/2017/08/data-scientist-cathy-oneil-algorithms-opinions-embedded-code.html
Actually, everyone uses algorithms. They just don’t formalize them in written code. Let me give you an example. I use an algorithm every day to make a meal for my family. The data I use is the ingredients in my kitchen, the time I have, the ambition I have, and I curate that data. I don’t count those little packages of ramen noodles as food.
(Laughter)
My definition of success is: a meal is successful if my kids eat vegetables. It’s very different from if my youngest son were in charge. He’d say success is if he gets to eat lots of Nutella. But I get to choose success. I am in charge. My opinion matters. That’s the first rule of algorithms.
Algorithms are opinions embedded in code. It’s really different from what you think most people think of algorithms. They think algorithms are objective and true and scientific. That’s a marketing trick. It’s also a #marketing trick to intimidate you with algorithms, to make you trust and fear algorithms because you trust and fear mathematics. A lot can go wrong when we put blind faith in big data.
The era of blind faith in big data must end
#Cathy_O'Neil, Ted Talk, Avril 2017
▻https://www.ted.com/talks/cathy_o_neil_the_era_of_blind_faith_in_big_data_must_end
Algorithms update bureaucracy’s long-standing strategy for evasion (Adam Clair)
▻http://reallifemag.com/rule-by-nobody
#Book: Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy
(Cathy O’Neil, Sept 2016)
▻https://www.amazon.fr/Weapons-Math-Destruction-Increases-Inequality/dp/0451497333
Il est plus que temps que le Big data évalue ses impacts
▻http://www.internetactu.net/2016/06/29/il-est-plus-que-temps-que-le-big-data-evalue-ses-impacts
Cathy O’Neil est data scientist (blog, @mathbabedotorg). Docteur en mathématique de Harvard, elle vient de publier un livre intitulé Armes de destruction matheuses expliquant comment les Big Data augmentent les inégalités et menacent la démocratie, comme le soulignait une récente interview d’elle dans Rue89. Elle a beau être une spécialiste des données et de leurs traitements, elle n’en est pas moins très sceptique et critique sur l’utilisation que nous en faisons. Sur la scène de la conférence USI, (...)
« Les algorithmes peuvent creuser les inégalités et saper la démocratie »
▻http://rue89.nouvelobs.com/2016/06/12/les-algorithmes-peuvent-creuser-les-inegalites-saper-democratie-264
La mathématicienne américaine Cathy O’Neil nous met en garde contre les dangers de certains algorithmes, aux impacts destructeurs dans la justice, l’éducation, l’accès à l’emploi ou au crédit. Cathy O’Neil n’est pas un « data scientiste » comme les autres. C’est une femme, aux cheveux bleus, et surtout, elle se définit elle-même comme « data sceptique ». Cette docteur en maths de la très prestigieuse université Harvard aux Etats-Unis tire la sonnette d’alarme contre certains algorithmes opaques et (...)
#algorithme #Big_Data #discrimination #criminalité #marketing_prédictif
’Minority Report’ Is Real — And It’s Really Reporting Minorities - Mic
▻http://mic.com/articles/127739/minority-reports-predictive-policing-technology-is-really-reporting-minorities
The big problem
Predictive crime data could help eradicate racial profiling in policing if the data were clean of racial prejudice. Unfortunately, that data is generated based on systemic police practices that have marginalized ethnic minorities in this country for decades.
Systems that rely on historical crime data, by their nature, will give results reflective of traditional police practice: The biases in the data are baked into the human practices that generated the data in the first place. When it comes to drug crime, for example, a higher proportion of white Americans have used drugs compared to African-Americans, but African-Americans — largely because of traditional police practices — are the ones incarcerated at disproportionately high rates.
“The academic community suggests that crime, including serious violent crime, is reported to the police about 50% of the time,” Christopher Herrmann, a professor at the John Jay School of Criminal Justice, told Mic. “That means, at best, these predictive software programs are beginning their predictions with only half of the picture.”
Many of the crimes that go unreported are crimes where the victim doesn’t feel like the police will adequately support them, like sexual assault and hate crimes. Diverting police resources toward hotspots identified by these maps means more attention is paid to types of crime already well-covered by police officers.
Cathy O’Neil is a mathematician whose upcoming book, Weapons of Math Destruction, explores how big data can amplify prejudice. O’Neil says that algorithmic models can only amplify and expose insights based on the human behavior that created the data in the first place.
Weapons of Math Destruction quel titre !
#big_data #surveillance #precrime
elle a fait un TEDx :
▻https://www.youtube.com/watch?v=gdCJYsKlX_Y