Note de ce sujet :
  • Moyenne : 0 (0 vote(s))
  • 1
  • 2
  • 3
  • 4
  • 5
Mécanique quantique
#1
a ce propos.. Non rien à voir, mais ça je trouve ça complètement ouf aussi !

Après tout pourquoi on ne parlerai pas aussi de mécanique quantique à la buvette

https://www.youtube.com/watch?v=zPolTp0ddRg
Répondre
#2
C'est une vidéo intéressante, qui aborde les grands classiques de la mécanique quantique, et de la physique en général Smile

Il ne manque que l'intrication quantique 099
Répondre
#3
pour l'intrication quantique voici la vidéo, c'est complètement ouf aussi, digne du professeur zarbi

https://www.youtube.com/watch?v=5R6k2mEacZo
Répondre
#4
Y a beaucoup de physiciens qui cherchent la chouette on dirait ... mais j'ai jamais vu de chimiste.

Encore une preuve de la supériorité de la physique sur la chimie !  Big Grin
Répondre
#5
(2020-01-23,14:10)Shadoc a écrit : pour l'intrication quantique voici la vidéo, c'est complètement ouf aussi, digne du professeur zarbi

https://www.youtube.com/watch?v=5R6k2mEacZo

C'est bien expliqué Smile

L'intrication physique fonctionne, mais on ne sait pas pourquoi ça fonctionne ^^
Ce n'est pas aussi anodin qu'on peut le croire, à l'époque de l'ordinateur quantique et de la sécurité de l'information.

Les IA sont un sujet d'actualité aussi.

Celles à base de réseaux neuronaux fonctionnent bien : le principe est simple, on donne des photos de chats par exemple à une IA et celle-ci ajuste ses paramètres neuronaux au fur et à mesure de son apprentissage. De sorte que si on donne une photo de chat que l'IA n'a jamais vue elle sera capable de la classer elle-même dans la catégorie chat (à 90% environ).

Mais les scientifiques se sont rendus compte que ce type d'apprentissage comportait des failles. Il suffit par exemple de prendre une photo de chat et de manipuler les pixels, l’œil humain ne verra pas la différence mais l'IA ne verra plus un chat, elle verra par exemple une chaussure ou un parasol ^^
Le cerveau humain est en effet capable d'imaginer un concept abstrait (un chat c'est un animal avec une queue, des oreilles, des moustaches, des griffes, ...) mais pas une IA, qui stocke une sorte de "superfonction" dont les paramètres sont affinés au fur et à mesure.

Des problèmes encore à surmonter donc, avant de se prendre le "mur de Gödel" (le théorème d'incomplétude dit qu'il peut exister des énoncés corrects mais qui ne sont ni démontrables ni infirmables : des énoncés "indécidables"). C'est le genre d'article qu'on lit 50 fois, en redécouvrant la logique à chaque fois car on n'arrive pas à l'assimiler tellement le gars était au-dessus du lot ^^
Répondre
#6
Je viens justement d'avoir l'impression de comprendre le théorème de Godel en regardant cette vidéo.

Enfin il faudra que je la revoie pas mal de fois pour que je sois capable de restituer quelque chose d'intelligible.

https://www.youtube.com/watch?v=82jOF4Q6gBU
Répondre
#7
Excellent Smile

Je ne me rappelais pas du deuxième théorème d'incomplétude, mais il est un peu violent en même temps ^^

Et le fameux paradoxe du menteur :

Citation :Un homme déclare « Je mens ».

Si c'est vrai (c'est un menteur) alors ce qu'il dit est faux (ce n'est pas un menteur).
Si c'est faux (ce n'est pas un menteur) alors ce qu'il dit est vrai (c'est un menteur).

Tongue
Répondre
#8
(2020-01-23,15:41)zarquos a écrit :
(2020-01-23,14:10)Shadoc a écrit : pour l'intrication quantique voici la vidéo, c'est complètement ouf aussi, digne du professeur zarbi

https://www.youtube.com/watch?v=5R6k2mEacZo

C'est bien expliqué Smile

L'intrication physique fonctionne, mais on ne sait pas pourquoi ça fonctionne ^^
Ce n'est pas aussi anodin qu'on peut le croire, à l'époque de l'ordinateur quantique et de la sécurité de l'information.

Les IA sont un sujet d'actualité aussi.

Celles à base de réseaux neuronaux fonctionnent bien : le principe est simple, on donne des photos de chats par exemple à une IA et celle-ci ajuste ses paramètres neuronaux au fur et à mesure de son apprentissage. De sorte que si on donne une photo de chat que l'IA n'a jamais vue elle sera capable de la classer elle-même dans la catégorie chat (à 90% environ).

Mais les scientifiques se sont rendus compte que ce type d'apprentissage comportait des failles. Il suffit par exemple de prendre une photo de chat et de manipuler les pixels, l’œil humain ne verra pas la différence mais l'IA ne verra plus un chat, elle verra par exemple une chaussure ou un parasol ^^
Le cerveau humain est en effet capable d'imaginer un concept abstrait (un chat c'est un animal avec une queue, des oreilles, des moustaches, des griffes, ...) mais pas une IA, qui stocke une sorte de "superfonction" dont les paramètres sont affinés au fur et à mesure.

Des problèmes encore à surmonter donc, avant de se prendre le "mur de Gödel" (le théorème d'incomplétude dit qu'il peut exister des énoncés corrects mais qui ne sont ni démontrables ni infirmables : des énoncés "indécidables"). C'est le genre d'article qu'on lit 50 fois, en redécouvrant la logique à chaque fois car on n'arrive pas à l'assimiler tellement le gars était au-dessus du lot ^^



 l'exemple d'un apprentissage IA pour faire la diff entre chien et loup.
Au final, quand l'ia voyait un chien dans la neige : elle voyait un loup...
=> Stat sur base de donné.

La dessus je me pose bcp de questions sur l apprentissage d une ia.

Sur cette exemple tu fais comment ? Tu montres bcp de photos de loups en disant a l ia que ce sont des loups puis beaucoup de photos de chiens en disant a l ia que ce sont des chiens. Une base de donnée énorme.mais aucune intelligence.
Comme un gamin de 2ans a qui tu demanderai le meme exercice.

Vu le résultat (prises en compte de la neige) je suppose que oui.

Alors quil faudrait lui apprendre des bases du style un loup a une morphologie differente ex :il est plus haut sur pattes n a jamais les oreilles tombantes le museaux long.... Idem sur les chiens qui ont des couleurs différentes des morphologie differente... Des paramètres complexe et varié. Pour cela il faut déjà reconnaître ou est l'animal sur l'image et le distinguer du reste.


Le problème de l ia c est quil faut l instruire. Croire qu'elle peut apprendre tte seule est ridicule.

Donc l IA ne peut être plus intelligente que l humain qui la programme.
Répondre
#9
Tout dépend de ce que tu appelles "intelligence". En réalité, il faut voir l'IA comme une grosse calculatrice. Elle n'est pas capable d'avoir des idées ou de prendre des initiatives, et en ce sens elle est nettement inférieure à l'esprit humain, qui se caractérise par une certaine créativité et un potentiel d'innovation. En revanche, l'IA est capable de réaliser des calculs complexes sur des bases de données énormes, et elle possède aussi une capacité de stockage qui excède la nôtre. En plus, elle a une mémoire infaillible puisqu'elle n'oublie rien.

En résumé, il y a deux choses différentes. Si tu considères que l'intelligence est la capacité à faire des calculs très durs très vite, l'IA est une intelligence supérieure à l'humain (un homme capable de calculer 4587*9938847 en une seconde est-il intelligent ?). En revanche, on doit garder à l'esprit que l'IA (aussi performante qu'elle soit) n'a pas d'idées révolutionnaires, et reste en ce sens inférieure au cerveau humain.
Répondre
#10
Par ces temps de confinements, on a du temps. voici le détail des expériences exposées plus haut

https://www.youtube.com/watch?v=_kGqkxQo-Tw
Répondre


Atteindre :