Discussion:Apprentissage profond

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

Petit problème de nommage[modifier le code]

"Le deep learning ( aussi appelé deep structured learning, hierarchical learning ou apprentissage profond"

Vous ne trouvez pas un rien branquignol de vouloir désigner une discipline dont un Français Yann LeCun est le principal promoteur, et dont il est considéré comme le principal spécialiste du moment par ses pairs, par un terme anglophone ? Il est normal de désigner par le terme de son pays d'origine un allegro, un poulet chasseur, un leitmotiv, non ? Or Yann LeCun emploie lui-même systématiquement le terme apprentissage profond quand il se trouve devant un public francophone. Ce titre répond-il à un masochisme national déplacé ? 89.156.208.130 (discuter) 11 avril 2016 à 12:48 (CEST)[répondre]

Oui mais que fait-il quand il se trouve devant un public international, comprenant des francophones, des hispanophones, des germanophones, etc.
Cordialement. — Wfplb [blabla] 11 avril 2016 à 13:46 (CEST)[répondre]
Peut-être faut-il simplement intégrer cette remarque dans l'article au début , dans une section sémantique (Wikpan (discuter) 11 avril 2016 à 15:48 (CEST))[répondre]

Une source[modifier le code]

Une source qui peut être utile : http://neuralnetworksanddeeplearning.com/ --Roll-Morton (discuter) 22 juin 2016 à 18:45 (CEST)[répondre]

Réactions[modifier le code]

Le paragraphe Réactions porte sur l'intelligence artificielle en général et n'a pas sa place dans cet article, mais dans l'article Intelligence artificielle dans la section Questions soulevées. --Pierre de Lyon (discuter) 29 juin 2016 à 18:44 (CEST)[répondre]

« Réseau de neurones »[modifier le code]

Bonjour,

est-ce que l'apprentissage profond est toujours une forme de réseau de neurones artificiel, ou est-ce que c'est plus large ? D'après l'article ça semble plus large, mais il me semble que non... --Roll-Morton (discuter) 26 mai 2017 à 17:21 (CEST)[répondre]

Ce domaine évolue rapidement : en tenir compte[modifier le code]

Le dernier article cité date de janvier 2016. Or nous sommes fin décembre 2017. Cela fait presque deux ans, ce qui est énorme dans un domaine qui évolue rapidement. Depuis deux ans, il y a eu de nombreux articles sur ce qui se fait réellement sur Google et Facebook dans le traitement mondial des données privées des internautes, les démissions fracassantes d'anciens hauts dirigeants de ces Transnationales ... et l'attitude attentiste de l'Europe qui tarde à légiférer en ce domaine. L'article a tendance à minimiser les risques de l'utilisation du deep learning par ces très grandes entreprises, les auteurs seraient-ils en "service commandé" pour ne pas dévoiler tout ce qui est entrepris par ces firmes et qui sont une ingérence dans la vie privée des internautes ? Je ne donnerai qu'un exemple, celui du choix qu'effectue facebook à notre insu lorsque nous visitons la page publique d'un "ami". De quel droit facebook choisit-il ce que je peux voir ou non de ce qu'un ami a publié sur son site? C'est une entrave à ma liberté d'information. C'est grave parce qu'il n'y a pas de parade. Un article récent met en garde contre ces dérives (https://www.maddyness.com/technologie/2017/11/13/ia-deep-learning-trou-noir-intelligence-artificielle/). Il n'est pas le premier ni le seul. Alain Verreman Professeur à la retraite, université de Franche-Comté ex-directeur de Master "Langues et Communication en Ligne" — Le message qui précède, non signé, a été déposé par Alain-André (discuter), le 25 décembre 2017 à 11:30 (CET)[répondre]

Imprécisions sur le Deep Learning et son historique[modifier le code]

Bonjour,

J'ai travaillé dans ce domaine à l'INRIA dans les années 90-2000.

En fait, sur l'historique il y a quelques imprécisions et un flou, notamment sur les dates et les modèles.

En 2010, le nom Deep Learning a pris son essort, mais il reste un remapage du nom "réseaux neuronaux", qui ont été principalement développés suite à la reprise des travaux durant les années 80, avec la recherche de nouveaux modèles et de nouvelles techniques, jusque dans les 90's. les cartes de kohonen et les mémoires autoassociatives de Hopfield, et les travaux précurseurs concernant les calculs matriciels et les valeurs propres (la lignée LSA) font partie de ce domaine, repris, effectivement ensuite dans les années 2010.

Les travaux de Hinton ont effectivement refait avancé le domaine, mais c'est surtout la puissance décuplée de calculs et de stockage qui a permis une application à grande échelle de l'existant (qui restait expérimental et théorique), ce qui était impossible avant.

Je crois qu'on peut retravailler cet article un peu, si vous voulez.

Bonne journée Patrick Bougé

Tout à fait d'accord. Je travaillais avec des réseaux de neurones en cascade dans les années 1990s, où ils avaient transformé la prédiction de la structure des protéines (les réseaux de neurones simples avaient été utilisés depuis la fin des années 1980s). Mais c'est une bataille perdue. Je ne sais pas pourquoi, mais un pan entier de l'informatique a juste été effacé de la mémoire collective (y compris dans les cours universitaires !) Lenov (discuter)