Skip to main content

Sur l'Information de Fisher

  • Conference paper
  • First Online:
Théories de l'Information

Part of the book series: Lecture Notes in Mathematics ((LNM,volume 398))

Résumé

Nous considérons dans cette note une généralisation IΦ (1:2) de l'information de Kullback entre deux mesures de probabilité P1 et P2 définie à l'aide d'une fonction convexe φ. Cela nous permettra de définir une information généralisée IΦ (Θ) de Fisher pour une famille {f(w:θ), θ ε Θ} de densités de probabilité qui ne sont pas nécessairement différentiables par rapport au paramètre θ. Si cette famille satisfait aux "conditions de régularité" on peut obtenir directement l'information de Fisher à partir de l'information IΦ (Θ). Ce travail généralise en partie les résultats de Kullback ([8] p.26) et de Kagan [7].

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Références

  1. CHAPMAN D.G., ROBBINS H.-Minimum variance estimation without regularity assumptions, Ann. Math. Statist. 22, (1951) 581–586.

    MATH  MathSciNet  Google Scholar 

  2. CRAMÉR H.-Mathematical methods of statistics, Princeton University Press, Princeton, 1946.

    MATH  Google Scholar 

  3. CSISZÁR I.-Fine informations-theoretische Unggleichung und ihre Anwendung auf den Beweis der Ergodizital von Markoffschen Ketten, Publications of the mathematical Institute of Hungarian Academy of Sciences, 8, Series A, Fasc. 1–2, (1963), 85–108.

    MATH  Google Scholar 

  4. CSISZÁR I.-Information-type measures of difference of probability distributions and indirect observations, Studia Sci. Math. Hungar, 2, 1967, 299–318.

    MATH  MathSciNet  Google Scholar 

  5. FORTET R., MOURIER E.-Les fonctions aléatoires comme éléments aléatoires dans un espace de Banach, J. Math. Pures Appl. 38, 1959, 347–364.

    MathSciNet  Google Scholar 

  6. HALMOS P.R., SAVAGE L.J.-Applications of the Radon-Nikodym theorem to the theory of sufficient statistics, Ann. Math. Statist., 20, (1949),225–241.

    MATH  MathSciNet  Google Scholar 

  7. KAGAN A.M.-On the theory of Fisher's amount of information, Soviet Math. Dokl., 4, (1963), 991–993.

    MATH  MathSciNet  Google Scholar 

  8. KULLBACK S.-Information theory and statistics, John Wiley & Sons, London, 1959.

    MATH  Google Scholar 

  9. PEREZ A.-Risk estimates in term of generalised f-entropies, in Proc. Coll. Information Theory, Debrecen Hungary, 299–315. Janos Bolyai Mathematical Society Budapest, Hungary, 1968.

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Editor information

J. Kampé de Fériet C. F. Picard

Rights and permissions

Reprints and permissions

Copyright information

© 1974 Springer-Verlag

About this paper

Cite this paper

Aggarwal, N.L. (1974). Sur l'Information de Fisher. In: Kampé de Fériet, J., Picard, C.F. (eds) Théories de l'Information. Lecture Notes in Mathematics, vol 398. Springer, Berlin, Heidelberg . https://doi.org/10.1007/BFb0065772

Download citation

  • DOI: https://doi.org/10.1007/BFb0065772

  • Published:

  • Publisher Name: Springer, Berlin, Heidelberg

  • Print ISBN: 978-3-540-06844-0

  • Online ISBN: 978-3-540-37798-6

  • eBook Packages: Springer Book Archive

Publish with us

Policies and ethics