Intelligence artificielle - arnaudrco/exemples GitHub Wiki

8 dépôts github : exemples-de-montages avec les ateliers et projets réalisés au repair café festisol animations et projets réalisés pendant FESTISOL et à la MJC ; CROUS-micro-python animations et projets commencés au CROUS et poursuivis pendant les ateliers numériques ; piano une nouvelle passion réalisée à coup de marteau visio et communication ; jouets réparations, récréations mathématiques, création de nouveaux jouets developpement-voiture robot, intelligence artificielle ; raspberry-pico et micro-python ; Repair Café d'Orsay Blog Mots clés

Comment éviter le sujet ? Pourquoi l'aborder dans le cadre de la réparation ?

donner des références, un dictionnaire pour comprendre les termes souvent en anglais , dans le cadre repair académie des formations internes ou ouvertes au public

les usages qui conditionnent les métiers de demain

Pour les enfants, des démonstrateurs et des formations ( Bures, Orsay )

références

IESF

Deep learning : introduction aux réseaux de neurones profonds

Presentation de Pascal Maryniak ici https://github.com/arnaudrco/visio/blob/main/20240606_pr%C3%A9sentation_deeplearning_IESF.pdf

Exemple : lire les modèles de réseaux pour le traitement des données textuelles utilisés par ChatGTP

image

D'après le Fonds Monétaire International, l'intelligence artificielle aura un impact sur 60% des emplois dans les pays économiquement avancés, et seulement sur 26% dans les pays à faible revenu. L'institution alerte sur le risque d'aggravation des inégalités sociales au niveau mondial. Source : https://www.lemondeinformatique.fr/actualites/lire-l-ia-impactera-40-des-emplois-dans-le-monde-selon-le-fmi-92668.html

impact sur les métiers

image

https://www.strategie.gouv.fr/sites/strategie.gouv.fr/files/atoms/files/revue_personnel_-s._benhamou-_intelligence_artificielle.pdf

Les usages de l’intelligence artificielle d'Olivier Ezratty

image

dictionnaire

image

image

image

La Tribune

Intelligence artificielle : ambition et stratégie du président de la République 

Source : La Tribune 22 05

Intelligence artificielle : Macron promet un « fonds d'investissement très significatif »

Plus de 100.000 étudiants par an formés à l'IA

La « stratégie bonsaï » de Macron dans l’IA

La Tribune 26 05

Semi-conducteurs et Corée du Sud

La Tribune 23 05 Semi-conducteurs : la Corée du Sud réalise des investissements monstrueux pour renforcer son industrie  La Corée du Sud met les bouchées doubles. Le président sud-coréen Yoon Suk Yeol a annoncé ce jeudi un nouveau plan de soutien de quelque 17,5 milliards d'euros pour renforcer l'industrie des semi-conducteurs du pays, secteur stratégique au cœur d'une bataille mondiale… « qui inclut le financement, l'infrastructure, la recherche et le développement, ainsi que le soutien aux petites et moyennes entreprises » … « Comme vous le savez tous, les semi-conducteurs font l'objet d'une guerre totale entre pays », a déclaré Yoon Suk Yeol. « La victoire ou la défaite ira à celui qui fabriquera le premier les semi-conducteurs de pointe dotés d'une grande capacité de traitement des données »… La sécurisation de l'approvisionnement en semi-conducteurs de pointe est devenue une question cruciale pour de nombreux pays, les États-Unis et la Chine s'étant engagés dans une bataille féroce pour le contrôle du marché. Pour assurer sa souveraineté technologique sur ce marché estimé à 440 milliards d'euros, l'Union européenne ambitionne, de son côté, de produire 20% des semi-conducteurs dans le monde d'ici à 2030, le double de sa part actuelle.  

Règlement européen « AI Act »

Gouvernement 24 05 via Twitter 25 04 L'évolution rapide de l'intelligence artificielle (IA), capable de composer de la musique, rédiger des essais et reproduire des œuvres d’art, a suscité à la fois l'admiration et des inquiétudes pour sa propension à générer des fausses informations et à influencer l'opinion publique. Suite au déploiement de ChatGPT en 2022, l'Union européenne (UE) a adopté le règlement « AI Act » le 13 mars 2024 pour promouvoir une IA digne de confiance tout en assurant le respect des droits fondamentaux des individus. Guillaume Avrin, coordonnateur national pour l'intelligence artificielle, explique en détail cette première législation historique sur l'intelligence artificielle. Qu'est-ce que l'« AI Act » ? L'AI Act, c'est une « réglementation produit », c'est-à-dire qu'elle vise à réguler des produits d'intelligence artificielle qui sont commercialisés sur le marché européen. Les systèmes d'IA autorisés obtiennent le fameux « marquage CE ». Le « marquage CE » est une indication clé qui atteste qu'un produit est conforme aux exigences légales de l'Union européenne (UE). Une approche dite « par les risques » est utilisée pour cette réglementation. Il ne s'agit donc pas de classer les IA qui seront autorisées et celles qui seront interdites en fonction de la technologie sous-jacente, mais en fonction de l'usage prévu de la technologie… L’AI Act classe les systèmes d'IA selon cinq niveaux de risque : Risque inacceptable Il s’agit notamment des systèmes d’IA utilisés pour la manipulation inconsciente, l'exploitation des vulnérabilités, la notation sociale, et la catégorisation biométrique (origine ethnique, religion, etc.). Haut-risque La plupart des IA qui rentrent dans cette catégorie sont celles déjà couvertes par des réglementations européennes existantes comme la réglementation sur les dispositifs médicaux, la directive machine ou la directive sur la sécurité des jouets, etc. Cependant, de nouvelles applications de l’IA sont également concernées comme l’éducation et la formation professionnelle, l’accès aux services privés essentiels (crédit bancaire, assurance) et aux prestations publiques essentiels (santé, appels d'urgence, justice). Risque spécifique Cela concerne notamment les systèmes d’IA qui interagissent avec des personnes physiques, génèrent des contenus ou détectent des émotions. L’utilisateur doit alors être informé qu’il interagit avec une IA. Risque associé aux IA d’usage général Les développeurs doivent fournir un résumé détaillé des jeux de données d'entraînement, notamment pour s'assurer du bon respect des droits d'auteur, ainsi qu’une documentation technique. Risque systémique associé aux IA d’usage général Pour les IA d’usage général ayant nécessité une puissance de calcul supérieure à 10 puissance 25 flops, s’ajoute aux exigences de transparences des exigences d’évaluation et de tests adversariaux, d’atténuation des risques, de déclaration des incidents sérieux, de cybersécurité et d’analyse de la consommation d'énergie. Quelles sont les principales préoccupations éthiques de l'« AI Act » ? L'AI Act vise à garantir la sécurité des biens et des personnes, ainsi que la protection des droits fondamentaux comme la protection de la vie privée et des données personnelles, la non-discrimination, la transparence, la responsabilité ou encore le respect des valeurs démocratiques européennes. En période d’élection, l’IA permettra de limiter le risque de manipulation du débat public et de désinformation. Avec l'AI Act, un certain nombre de mesures sont mises en place pour s'assurer que l'on respecte un ensemble de critères éthiques associés à la gestion des risques, la gouvernance des données, la documentation technique, la traçabilité, la supervision humaine, l'évaluation de la robustesse, l'exactitude, la cybersécurité des systèmes d'IA et la mise en place d'un système de management de la qualité. Mais l'AI Act n'est pas la seule mesure mise en place par l'UE sur l'IA de confiance.  Avec le programme pour une Europe numérique,elle cofinance avec les États membres, dont la France, des Testing and Experimentation Facilities for AI(TEF) avec un budget supérieur à 300 millions d’euros. De large consortiums de 40 à 60 acteurs de l'IA de confiance, notamment des centres d'essais, des organismes de certification, des organismes de normalisation et des living labs sont impliqués dans l’initiative. L'objectif de ces TEF est de fournir aux PME, ETI et groupes industriels européens l'ensemble des outils nécessaires pour l’évaluation des systèmes d’IA en phase de mise au point des IA et donc au service des développeurs de technologies intelligentes. Quelles sont les sanctions de l'« AI Act » ? Les sanctions prévues par l'AI Act vont de 1 % à 7 % du chiffre d’affaires annuel mondial de l’entreprise ou déterminées à partir de montants seuils allant de 7,5 à 35 millions d’euros d’amende. Le niveau de l’amende varie selon la nature de la non-conformité (non-respect des usages interdits, manquement aux exigences pour les applications à haut risque, ou non-conformité aux exigences de transparence pour les risques limités mais spécifiques) et la catégorie de l’entreprise. Quelles sont les répercussions de l'IA sur le marché du travail européen et l'impact de l'« AI Act » sur la compétitivité des entreprises ? L'IA représente une opportunité unique de progrès économique et de bien-être social. D'une part, elle peut contribuer à réduire les tâches pénibles physiquement ou rébarbatives. Et d'autre part, elle peut améliorer la compétitivité des entreprises françaises. Dans mon parcours professionnel, j’ai dirigé un département chargé d'évaluer les systèmes d'IA entrant sur le marché national et européen au sein du Laboratoire national de métrologie et d’essais. J'ai pu apprécier qu'une bonne réglementation favorise l'innovation, car sans cadre clair, les développeurs hésitent à intégrer l'IA de peur de ne pas pouvoir prouver qu’ils ont fait leur maximum pour se mettre en conformité en cas d’accident. Par ailleurs, une mauvaise réglementation peut freiner l'innovation. Il est crucial que les développeurs n'aient pas à se référer à de multiples règlements pour un même sujet. Par exemple, pour commercialiser une IA dans la santé, il ne devrait pas être nécessaire de consulter à la fois des exigences de cybersécurité dans la réglementation sur les dispositifs médicaux, dansl'AI Act et d'autres règlements de cybersécurité. Cela vaut aussi pour les droits d'auteur et les données personnelles. Il est essentiel de simplifier les textes réglementaires pour éviter une complexité excessive pour les entreprises. Un autre point d'attention qui me semble essentiel, c’est qu'il ne faut pas s'écarter de la régulation par les risques, par les usages. Il ne faut pas réguler les technologies. Parce que si on régule les technologies, le texte réglementaire devient obsolète extrêmement rapidement. On a vu les progrès en 2023-2024 de l'intelligence artificielle. Chaque semaine, une nouvelle innovation technologique sur l'IA était rendue publique. Si nous tenons cette ligne, ce qu’a fait la France au cours des négociations sur l’AI Act, nous aurons une réglementation européenne qui favorisera l’innovation et qui accélérera la diffusion de l’IA dans nos entreprises et notre société.

L'UE se dote d'un bureau d'experts pour encadrer l'intelligence artificielle, une première

La Tribune 29 05 Un bureau de l'IA, constitué d'experts chargés de mettre en œuvre la nouvelle législation de l'Union européenne, a été créé pour encadrer l'intelligence artificielle, a annoncé la Commission européenne ce mercredi. Établi au sein de la Commission européenne, à Bruxelles, ce service emploiera 140 spécialistes en technologie, juristes et économistes. … Prévu par le règlement sur l'IA définitivement adopté le 21 mai par les Vingt-Sept, le nouveau service jouera un rôle clé dans sa mise en œuvre. Les 27 pays membres de l'Union européenne ont définitivement approuvé mardi dernier une législation inédite au niveau mondial pour réguler les systèmes d'intelligence artificielle (IA) afin de favoriser l'innovation en Europe tout en limitant les possibles dérives. Les co-législateurs de l'UE avaient trouvé un accord début décembre au terme de difficiles négociations, certains pays comme la France craignant un encadrement excessif qui menacerait le développement de ce secteur d'avenir. Le texte avait été adopté le 13 mars à une très large majorité par les eurodéputés... Cette législation s'appliquera pour l'essentiel à partir de 2026. Elle adopte une approche « fondée sur le risque » et impose aux différents systèmes d'intelligence artificielle des contraintes proportionnées aux dangers qu'ils représentent pour la société. Des exigences renforcées pour les systèmes à haut risque Les systèmes d'IA ne présentant qu'un risque limité seront soumis à des obligations de transparence très légères, tandis que les systèmes à haut risque, utilisés par exemple dans les infrastructures critiques, l'éducation, les ressources humaines ou le maintien de l'ordre, seront soumis à des exigences renforcées avant d'être autorisés dans l'UE. Les interdictions seront rares, et concerneront les applications contraires aux valeurs européennes comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine. Des règles spécifiques s'appliqueront aux IA génératives comme ChatGPT d'Open AI pour s'assurer notamment de la qualité des données utilisées dans la mise au point des algorithmes et du respect des droits d'auteur. Les sons, images et textes générés artificiellement devront clairement être identifiés comme tels pour éviter des manipulations de l'opinion. Le bureau de l'IA veillera notamment à l'application uniforme de la réglementation dans l'ensemble de l'Union européenne, en collaboration avec les Etats membres. Il participera aux enquêtes sur d'éventuelles infractions et gérera les sanctions contre les contrevenants. Il sera également chargé d'identifier les risques des nouvelles technologies et de soutenir la recherche européenne. L'UE n'a pas réussi à doper ses investissements dans l'IA Dans un rapport publié mercredi, la Cour des comptes européennes a estimé que l'UE n'avait pour l'instant « pas réussi à doper suffisamment les investissements dans l'IA pour faire jeu égal avec les leaders mondiaux du secteur ». La Commission européenne « n'a pas bien coordonné ses mesures avec celles des États membres, et les investissements n'ont pas fait l'objet d'un suivi systématique. À l'avenir, une gouvernance plus forte et des investissements publics et privés plus importants - et mieux ciblés - seront essentiels si l'Europe veut relever le défi de l'IA », a estimé la Cour. Les géants de l'IA prennent des engagements pour la sécurité Seize des principales entreprises mondiales de l'IA ont pris de nouveaux engagements pour assurer le développement en toute sécurité de cette science à Séoul mardi dernier. L'accord, signé notamment par OpenAI (ChatGPT), Google DeepMind et Anthropic, s'appuie sur les consensus atteint lors du premier « sommet » mondial sur la sécurité de l'IA, l'an dernier à Bletchley Park, au Royaume-Uni. Les entreprises d'IA qui n'ont pas encore rendu publique la façon dont elles évaluent la sécurité des technologies qu'elles développent s'engagent à le faire. Il s'agit notamment de déterminer quels sont les risques "jugés intolérables" et ce que les entreprises feront pour s'assurer que ces seuils ne sont pas franchis, explique le communiqué. Dans les circonstances les plus extrêmes, les entreprises s'engagent également à « ne pas développer ou déployer un modèle ou un système » si les mesures d'atténuation ne permettent pas de maintenir les risques en deçà des seuils fixés". Ces seuils seront définis avant le prochain "sommet" sur l'IA, en 2025 en France.

Liens

  1. Projet Anumby
  2. Cas d'utilisation pour le développement logiciel
  3. Développement-IA-en-python
  4. Robot Service Jeunesse 2023