information l.f.
information
1) Dans le langage courant, tout message émis ou conservé concernant un sujet donné.
Le mot est utilisé dans ce sens pour «l'obligation d'information du patient» faite par la jurisprudence (Cour de Cassation, 25 fév. et 14 oct. 1997).
2) En médecine, les informations doivent porter :
- d'abord sur l'état du patient, son évolution prévisible, sur les investigations et les soins qui ont été nécessités par cet état ;
- ensuite sur la nature exacte et les conséquences du traitement proposé ;
- enfin au sujet des risques inhérents à l'investigation ou au traitement.
Ces trois sortes d'informations, les plus complètes possibles («claires, loyales et compréhensibles») doivent être données au patient s'il est à même d'exprimer sa volonté et en outre à ses parents, s'il s'agit d'un mineur, ou aux proches s'il y a lieu.
Cette obligation d'information ne peut souvent pas s'appliquer en cas d'urgence. La preuve pour le médecin d'avoir satisfait à l'obligation d'information est difficile à apporter ; il lui est conseillé de délivrer une fiche résumant l'information délivrée, mais même une attestation signée par le patient est de peu de valeur.
Si le patient désire connaître les documents ayant enregistré les informations médicales le concernant (dossier, fiche résumée, etc.), il doit le faire, dans le domaine public (hôpital, médecine de contrôle, etc.), par l'intermédiaire d'un médecin qu'il aura lui-même désigné à cet effet (loi sur la consultation des documents administratifs). Sauf si elles ont été demandées par la justice, les informations médicales ne doivent être transmises à personne (même pas à la famille, notamment pour les enfants) en dehors du domaine médical qui est couvert par le secret médical. La saisie des documents médicaux sur commission d'un juge doit se faire en présence d'un représentant de l'Ordre des médecins et les documents doivent être transmis sous enveloppe scellée qui sera transmise au médecin expert.
2) Dans la théorie de l'information, on constate que la qualité des informations est très inégale et que la valeur de l'une d'elles peut même être nulle si elle n'apporte pas d'information nouvelle.
L'information peut s'exprimer en bits : un code à 6 bits, soit 26 = 32 possibilités, correspondant à un espacement (000000) ou 31 caractères (000001, 000010, 000011, …111111), couvre largement l'alphabet et permet d'écrire n'importe quel texte. On dit que ce code a une capacité maximale de 6 unités d'information, unités appelées shannon (symbole, Sh) ou logon. L'information maximale, m, peut être définie par le nombre de bits utilisés pour transmettre ou conserver l'information, correspondant à 2m possibilités (l'exposant m est le logarithme à base 2 de ce nombre de possibilités). Mais un message n'utilise jamais toute la capacité de la source, qui peut s'exprimer en termes de probabilité : la quantité d'information apportée par un message est égale au logarithme du rapport pm /po des probabilités des assertions estimées après, pm, et avant, po, la réception du message.
P. ex. une femme vient d'accoucher, on annonce au père «c'est un garçon» : l'information préalable (femme en train d'accoucher) donnait à très peu près une chance sur deux pour un garçon (po = 1/2), la nouvelle information apporte la certitude que c'est un garçon (pm = 1). On a pm/p0 = 2, la quantité d'information transmise par le message «c'est un garçon» est donc log2 2 = 1 Sh
C. E. Shannon, mathématicien américain (1948)
Étym. lat. formatio, de formare : former
→ bit, secret médical, shannon