Les constantes sont une plage de valeur plus précisément, mais ce n'était pas le point (la valeur moyenne est un nombre calculable).
-----
Les constantes sont une plage de valeur plus précisément, mais ce n'était pas le point (la valeur moyenne est un nombre calculable).
rien compris ????? et on besoin d'un algorithme pour ça. ( la valeur moyenne)
et c'est justement LE POINT puisque l'idée était de proposer de les retrouver via informatique jusqu'à la décimale souhaitée.
d'approximations aussi fines que voulues , si j'ai compris votre "idée" de refonte de la physique.
donc je n'attend que vos propositions d'algo pour les constantes en question.
Il me semble que depuis Kurt Gödel on sait que tout n'est pas "absolument" calculable. Au grand dam du projet de certains mathématiciens (Hilbert?).
Quoi Dieu n'existerait pas? Mais alors j'aurais payé ma moquette beaucoup trop cher (WA).
Bonjour,
Il n'y a pas de problème, soit on parle de constantes physique définies mathématiquement ( , , ...) et ces algorithmes existent depuis longtemps (je ne pense pas que les physiciens utilisent des nombres non calculables (Omega de Chaitin par exemple)), soit on parle de constantes définies empiriquement par l'expérience et ce sont des rationnels (ou plutôt un intervalle de rationnels).
Je suis Charlie.
J'affirme péremptoirement que toute affirmation péremptoire est fausse
@viiksu:
il me semble aussi, mais à la limite, on s'en fout un peu dans la mesure ou le sujet du fil a été détourné par ces considérations algorithmiques HS.
je parlais essentiellement des secondes, pour lesquelles je ne vois pas en quoi des algorithmes permettraient d'en obtenir une valeur aussi précise que souhaitée ( car c'était le sens de la proposition )Bonjour,
Il n'y a pas de problème, soit on parle de constantes physique définies mathématiquement ( , , ...) et ces algorithmes existent depuis longtemps (je ne pense pas que les physiciens utilisent des nombres non calculables (Omega de Chaitin par exemple)), soit on parle de constantes définies empiriquement par l'expérience et ce sont des rationnels (ou plutôt un intervalle de rationnels).
par ailleurs, les cte pi,e, etc ne sont PAS des constantes physiques ( voir la liste que j'ai mise en lien plus haut ) mais des cte mathématiques utilisées dans certaines formulations physiques.
( contrairement à la Cte de Planck, de Hubble, la charge de l'électron, .......la liste est longue )
Dans la mesure ou ces constantes sont mesurées, elles ne sont connus qu'avec un nombre fini de décimales, l'algorithme est tout trouvé.
Quant aux constantes mathématiques, les physicien ont le droit de les utiliser, et c'est possible (nous sommes d'accord qu'elles ne posent pas de problème)
Dernière modification par Médiat ; 27/01/2018 à 10h06.
Je suis Charlie.
J'affirme péremptoirement que toute affirmation péremptoire est fausse
c'est un peu fort de café d'appeler ça un algorithme (*) et de surcroit cela ne correspond pas à la proposition faite qui est je le rappelle de pouvoir "calculer" ces constantes à la précision souhaitée.Dans la mesure ou ces constantes sont mesurées, elles ne sont connus qu'avec un nombre fini de décimales, l'algorithme est tout trouvé.
Quant aux constantes mathématiques, les physicien ont le droit de les utiliser, et c'est possible (nous sommes d'accord qu'elles ne posent pas de problème)
(*) on fait un peu pipi dans un violon dans ce cas.
En tout état de cause cela répond à la problématique de Schrodies-Cat, et à celle des physiciens puisqu'on les obtient à la précision souhaitée (qui ne dépasse pas la précision connue)
Dernière modification par Médiat ; 27/01/2018 à 10h20.
Je suis Charlie.
J'affirme péremptoirement que toute affirmation péremptoire est fausse
pour être plus clair, il y a plusieurs erreurs dans le raisonnement proposée.
- le premier est de postuler que les "cte physiques" sont probablement des réels calculables. ( ce qui reste à prouver )
-le second est d'en déduire un parallèle direct avec les mathématiques et donc de supposer que, à l'instar de tout réel calculable ( même avec un nb infini de chiffre ) on devrait pouvoir les retrouver via des algo ad hoc avec la précision que l'on souhaite.
mais c'est oublier un point de fond, qui est que justement beaucoup de ces constantes ( celles qui ne sont pas postulées par définition ) sont issus d'observations et de mesures.
Je ne comprend pas l'objection, si une constante est issue d'observations, on n'en connaît qu'un nombre fini de décimales, donc la connaître avec la précision voulue est très simple, par exemple 3 avec 2 décimales cela donne 3.00 (parce que cette constante physique n'a pas d'autre existence que ce qu'on en connaît) si dans mille ans on précise qu'elle vaut 3.0000001, il suffira de changer l'algorithme, de la même façon qu'il aurait fallu changer les calculs.
Je suis Charlie.
J'affirme péremptoirement que toute affirmation péremptoire est fausse
non, je suis en désaccord.
On les obtient avec la précision que l'on peut atteindre, mais pas forcement à celle "souhaitée".
que les physiciens "fassent avec" est une chose ( je n'en suis pas du tout sur pour certaines (*)), mais d'affirmer que l'on pourrait ( avec les algorithmes sophistiqués inspirés du travail sur les "réels mathématiques" en donner une valeur avec une précision x choisie en est une autre ).
j'ajoute qu'il s'agit ici d'un débat HS par rapport au fil initié par Viisku, et qu'il me semble discourtois d'en détourner la question initiale.
(*) je pense par exemple à la "courbure" de l'univers ( même si celle ci ne fait peut être pas partie des ctes usuelles, j'ai un doute ).
je suis certain que les cosmologistes aimeraient volontiers avoir une fourchette plus fine , compte tenu des implications profondes de cette valeur sur la topologie globale et l'expansion.
Quand je parle d'algorithme qui donne des approximations d'un nombre réel, j'entends un algorithme qui donne une approximation arbitrairement petite , il suffit de calculer plus longtemps.
Il n'y a donc pas besoin de changer d'algorithme si les constante de la physique sont connues avec une précision plus élevée.
d'ailleurs, d'une manière générale, les progrès depuis qcq décennies ont permis d'améliorer grandement la précision de certaines d'entre elles.
On peut raisonnablement penser que si les physiciens se sont relevés les manches pour y arriver, c'est justement parce que "précision connue" à l'instant T n'est pas équivalent à "précision souhaitée".
mais de quel algorithme parlez vous ici ?
toutes ces démarches n'ont rien à voir avec le process que vous proposez. ( réels calculables au sens mathématique , etc .... )
je rappelle que vous avez suggérer de "re inventer" la physique via cette méthode.
Quel est l'intérêt pour un physicien d'utiliser une constante avec une précision plus grande que celle connue (je ne parle pas de la démarche consistant à essayer d'améliore la connaissance de cette constante), puisque par définition elle n'est pas connue au-delà de cette précision. Peut-être que je me trompe mais j'ai l'impression que vous parlez de ces constantes en ce qu'elle sont et non en ce qu'on en fait ; vous parlez de la courbure de l'univers, soit un physicien veut l'utiliser en ce qu'elle est dans une formule littérale et il utilisera son symbole, soit il veut l'utiliser dans un calcul et seules les décimales connues sont utilisables (par définition) et dans ce cas un algorithme, même trivial convient ; je ne comprends toujours pas l'objection
D'autre part il me semble trivial que si à un instant t on connaît une constante avec 12 décimales, et que plus tard on en connaît 15, il faudra changer l'algorithme (ce qui n'est pas un problème d'ailleurs), ce qui est la situation que je décrivais bien évidemment, si connaît un algorithme qui produit 12 décimales, le même algorithme en fournira 10, mais je ne vois pas le débat.
Je suis Charlie.
J'affirme péremptoirement que toute affirmation péremptoire est fausse
si vous ne saisissez pas ce point , toute discussion est stérile.
et encore une fois , ou interviennent les algorithmes tels que ceux qui sont évoqués.
je préfère sortir en attendant l'éventuelle intervention d'un pur physicien qui ne rentrera pas dans cette pseudo rhétorique.
Archimède avait conçu un algorithme permettant d'évaluer pi avec une précision arbitraire.
Dites, si ce n'est pas possible de continuer les échanges en restant cordiaux et en évitant les "petites piques", je ferme le sujet.
C'est vous qui voyez.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
L'algorithme d'Archimède était le périmètre des polygones réguliers, le procédé permet une précision arbitraire, au prix de beaucoup de calculs.
D'après l'histoire, Archimède n'aurait pas calculé plus de deux ou trois décimales.
Comprendre c'est être capable de faire.
pour information ( uniquement ) :
La constante de Planck est l'une des constantes physiques pour laquelle l'incertitude est la plus grande, une incertitude relative de 12 × 10−9. Elle n'est dépassée sur ce plan que par la constante de Boltzmann (0,57 × 10−6) et la constante gravitationnelle (46 × 10−6), et bien sûr la constante cosmologique très largement hors concours.
Cette incertitude est à son tour un facteur d'incertitude sur d'autres constantes physiques dans la détermination desquelles elle intervient :a vous lire, ces incertitudes n'intéressent pas les physiciens ou mieux, ils s'en passent très bien et n'ont pas "besoin" de mieux.
- La masse de l'électron, déterminée à partir de la constante de Rydberg.
- La charge élémentaire, calculée à partir de la constante de structure fine.
- Le magnéton de Bohr, défini à partir de la charge et de la masse de l'électron.
- Le nombre d'Avogadro, déterminé à partir de la masse de l'électron dans un pièges à ions de Paul et de Penning. ( wiki )
Alors relisez !
Ce que je dis est une trivialité absolue : aucun physicien ne peut utiliser dans ses calculs une constante en utilisant des décimales inconnues
Je suis Charlie.
J'affirme péremptoirement que toute affirmation péremptoire est fausse
Quand on fait un calcul, il est bon de prendre une précision légèrement supérieur à celle permise par les données pour limiter l'effet des erreurs d'arrondi,
mais cela ne change pas fondamentalement le choses.
A l'époque d’Archimède, les calculs étaient laborieux ,notamment pour les racines carrées.
L'algorithme d'Archimède est maintenant un exercice pour programmeurs débutant et on peut sans peine aller plus loin.
Si on ne veut pas prendre de risque, on peut prendre un intervalle, comme je l'ai indiqué dans mon message#36, il existe des études sur l'arithmétique des intervalles (date des années 60), par exemple : http://fab.cba.mit.edu/classes/S62.1...y_interval.pdf
Je suis Charlie.
J'affirme péremptoirement que toute affirmation péremptoire est fausse
Dans ce cas, il faudra définir les bornes des intervalles avec une précision supérieure a celle donnée par les données pour éviter de surestimer trop l'incertitude.