RSS

Fiche de lecture – Les Sept savoirs nécessaires à l’éducation du futur

L’éducation est « la force du futur » parce qu’elle est l’un des instruments les plus puissants pour réaliser le changement.
L’un des défis les plus difficiles à relever sera de modifier nos modes de pensée de façon à faire face à la complexité grandissante, à la rapidité des changements et à l’imprévisible, qui caractérisent notre monde. Nous devons repenser la façon d’organiser la connaissance.
Pour cela, nous devons abattre les barrières traditionnelles entre les disciplines et concevoir comment relier ce qui a été jusqu’ici séparé. Nous devons reformuler nos politiques et programmes éducatifs. Tout en faisant ces réformes, nous devons garder le cap sur le long terme, sur le monde des générations futures vis-à-vis desquelles nous avons une énorme responsabilité.

Frederico Mayor, préface des Sept savoirs nécessaires à l’éducation du futur. 1999

Les plus grands auteurs, les plus grands penseurs, à mon sens, sont ceux qui nous nourrissent et nous bousculent à la fois. La résistance au changement est l’une des caractéristiques fondamentales de l’être humain. C’est autant une mesure de protection contre un monde en perpétuel mouvement qu’une faiblesse… Edgar Morin est de ces auteurs qui nous bouleversent. Il nous invite à repenser le monde qui nous entoure, à l’appréhender dans toute sa complexité – non pas comme une somme d’éléments simples, mais comme un grand tout complexe où tout est relié. Edgar Morin nous invite à revoir notre manière d’appréhender le monde, de le comprendre… Il nous invite à penser la complexité. Je pourrais passer des heures à parler de lui et de l’influence déterminante que Morin a eu dans ma vie. Je pourrais vous inviter chaleureusement à le lire, parce que je pense que l’on ne sort pas tout à fait indemne de La Méthode et que ce livre peut changer une vie. Mais ce n’est pas l’objet de cet article.

Les Sept savoirs nécessaires à l’éducation du futur est à l’origine un rapport réalisé par Morin à la demande de l’UNESCO. Le philosophe et sociologue s’interroge sur ce que devrait être l’éducation des hommes éclairés du XXIème siècle. Il insiste sur la transdisciplinarité, la condition humaine, l’humanisme, la certitude et l’incertitude qui sont nos compagnes de route dans la quête du savoir… Morin se demande aussi comment mettre en perspective les problèmes écologiques, économiques et politiques qui s’annoncent, et comment les aborder avec lucidité mais sans catastrophisme. Pour Morin, l’homme du XXIème siècle, enfant de la mondialisation, est avant tout citoyen du monde. L’un des grands enjeux de l’éducation serait d’enseigner et développer une éthique du genre humain, de réfléchir sur la place de l’individu dans les nouvelles formes de société qui se développent.

Pourquoi parler des Sept savoirs nécessaires à l’éducation du futur sur un blog consacré à la documentation ? Parce que je pense que notre discipline, pour reprendre les mots de Bougnoux, est avant tout une inter-discipline et que nous avons tout à gagner à appréhender le monde de manière complexe si nous voulons nous réaliser dans nos professions. Je pense également que les réflexions de Morin sur la “connaissance de la connaissance” peuvent nourrir notre propre réflexion de documentalistes : la connaissance n’est-elle pas, au fond, notre matériau principal ? La gestion de l’information est sur le point de devenir la gestion de la connaissance, et la connaissance de la connaissance, c’est notre valeur ajoutée… Enfin, nos professions acquièrent au fil du temps une dimension pédagogique de plus en plus importante, et une réflexion de grand penseur sur ce qu’il peut être pertinent d’enseigner aujourd’hui ne peut nous faire que du bien.

Le rapport ne fait que 76 pages, et il est disponible gratuitement sur Internet (de manière tout à fait légale ici : merci l’UNESCO !). Je vous invite à le lire et à le méditer, mais aussi à réagir à cet article afin de tempérer, peut-être, mon enthousiasme pour ce livre, et émettre quelques critiques !

Voici, pour vous donner un avant-goût, les 7 savoirs selon Morin :

1 – Les cécités de la connaissance : l’erreur et l’illusion
2 – Les principes d’une connaissance pertinente
3 – Enseigner la condition humaine
4 – Enseigner l’identité terrienne
5 – Affronter les incertitudes
6 – Enseigner la compréhension
7 – L’éthique du genre humain

Conseil de documentaliste :

MORIN (Edgar). Les Sept savoirs nécessaires à l’éducation du futur. Paris : UNESCO. 1999

MORIN (Edgar). La Méthode. Paris : Le Seuil. 1977 (1er volume) – 2004 (6e volume).

Advertisements
 
1 Comment

Posted by on December 6, 2011 in Défis de la société de l'information

 

Tags: , , , , , , , ,

[Systèmes] Fiche de lecture – ouvrage de référence sur les systèmes d’exploitation

Ouvrage de référence : TANENBAUM, Andrew. Systèmes d’exploitation. 3ème édition. Paris : Pearson Education France, 2008. 1052 pages

Dans cet ouvrage, Andrew Tanenbaum présente progressivement les systèmes d’exploitation, leur conception et les enjeux actuels en matière d’interfaces et de sécurité des systèmes. L’ouvrage est en réalité un cours accompagné de 450 exercices corrigés.

Les six premiers chapitres sont consacrés aux notions fondamentales : l’architecture des ordinateurs, les threads, la gestion de la mémoire, les systèmes de fichiers, les entrées et sorties et les interblocages.
Les six chapitres suivants approfondissent les notions de base en abordant les systèmes multimédias, les multiprocesseurs, les interfaces, la sécurité informatique et la conception de systèmes tout en étudiant pas à pas deux systèmes : Linux et Windows Vista.
Le dernier chapitre est consacré à la démarche du concepteur, à la cohérence architecturale, à l’implémentation des algorithmes, à la conception des interfaces et à l’optimisation des performances.

Les différentes solutions adoptées depuis les années soixante sont présentées afin de permettre au lecteur de comprendre comment les concepteurs sont arrivés aux solutions actuelles. L’histoire de l’informatique et des réseaux est fréquemment évoquée, afin de situer l’ouvrage dans une continuité scientifique et technique. Des anecdotes attirent l’attention sur les failles de sécurité et la responsabilité du concepteur, mais aussi de l’usager qui se désintéresse souvent du fonctionnement de sa machine. Tanenbaum présente les principaux algorithmes et explique pourquoi les systèmes actuels utilisent telle ou telle solution en fonction des objectifs de sécurité, de convivialité et de performance. Il accompagne ses exemples de code commenté et de schémas pour faciliter la compréhension.

Les éditions précédentes de l’ouvrage étaient accompagnées d’un système d’exploitation simplifié, MINIX, conçu par Tanenbaum pour permettre à ses élèves d’étudier le code d’un système rudimentaire mais fonctionnel. Il est désormais disponible en téléchargement sur Internet.

Malgré sa technicité, Systèmes d’exploitation est accessible aux débutants. En effet, sa lecture nécessite peu de connaissances techniques car Tanenbaum aborde les problèmes depuis la base. En revanche, l’ouvrage est légèrement orienté (en privilégiant les micro-noyaux au détriment des noyaux monolithiques). La lecture est rendue difficile par la quantité d’informations à assimiler pour comprendre chaque chapitre. De plus, même si l’ouverture sur le monde de la recherche est intéressante, elle se limite à l’évocation des thématiques actuelles, et la bibliographie finale est très courte (2 pages). L’auteur cite peu ses confrères, ce qui rend la mise en perspective de l’ouvrage difficile. L’ouvrage de Tanenmbaum reste néanmoins un manuel essentiel pour comprendre et concevoir un système d’exploitation. Il fut même le livre de chevet de Linus Torvalds lors de la conception de Linux.

NB : Cet article est, à l’origine, un travail universitaire que j’ai réalisé en 2010/2011. Il est sous licence Creative Commons CC-BY-SA

 
Leave a comment

Posted by on November 28, 2011 in Des logiciels et des bibliothèques

 

Tags: , , , , ,

[Systèmes] Systèmes d’exploitation & sécurité

L’adversaire d’une vraie liberté est un désir excessif de sécurité.
Jean de la Fontaine, Le Loup et le chien

Le problème actuel qui se pose en sécurité de l’information est un problème d’échelle. Depuis quelques décennies, l’informatique envahit la vie quotidienne, et le volume des informations traitées ne cesse de croître. Ces informations ont souvent un intérêt stratégique, pour les personnes ou les entreprises qu’elles concernent mais aussi pour ceux qui tentent d’y accéder[5][9].

La transmission d’informations se fait de plus en plus à distance[11], et celle-ci peut donc être interceptée[1]. Or, l’efficacité d’un système d’information repose avant tout sur la confiance[9] que lui accorde la communauté d’usagers[10][12]. Le monde de la recherche fournit des efforts continus pour améliorer la sécurité des systèmes d’information. L’un des enjeux actuels repose sur la sécurisation des systèmes d’exploitation.

La recherche en sécurité des systèmes d’exploitation est dynamique et fait état d’une préoccupation croissante de la société pour la sécurité de ses données[6][4]. Mais la sécurité est également un marché qui met en jeu de nombreux acteurs (en particulier les concepteurs de systèmes d’exploitation et les éditeurs de logiciels antivirus)[6].

De manière générale, ce n’est pas le coût d’un système qui garantit sa sécurité, mais la qualité de sa conception, qui est difficilement vérifiable lorsque le code du programme est fermé[4]. Cela explique l’engouement actuel, en matière de sécurité, pour les systèmes libres comme OpenBSD, puisque l’on part du principe que l’ouverture du code permettra de détecter et de corriger plus rapidement les failles. Mais l’un des enjeux principaux reste l’éducation de l’usager à la sécurité du système qu’il utilise, car la sécurisation du système a souvent pour enjeu principal de se prémunir d’une erreur humaine[9].

L’amélioration de la sécurité des systèmes nécessite l’utilisation conjointe de moyens techniques, pour élaborer des modèles toujours plus performants[2][3][10][11], et de moyens humains, pour former les usagers aux bonnes pratiques de sécurité. En effet, lorsque la sécurité d’un système est compromise, bien souvent, la faille de sécurité principale a été introduite par l’utilisateur, par méconnaissance des bonnes pratiques de sécurité, négligence ou… malveillance[8 – chapitre 9 p. 641][6].

Parallèlement, le désir de contrôle des systèmes et des informations transmises pose des problèmes éthiques. En effet, un système trop sécurisé permettra parfois, paradoxalement, d’espionner l’usager[6]. Il est donc susceptible de poser des problèmes de respect de la vie privée et de secret de la correspondance. La sécurisation croissante des réseaux pose aussi des problèmes techniques[7] (l’information chiffrée est plus volumineuse et donc plus lente à transmettre) et éthiques (le fossé technologique se creuse entre le simple usager et l’initié). Il apparaît donc urgent de donner un cadre éthique aux pratiques de sécurité informatique[9].

Articles et ouvrages de référence :

[1] Hua Wang, Yanchun Zhang, Jinli Cao. Access control management for ubiquitous computing. Future Generation Computer Systems, Volume 24, Octobre 2008, Pages 870-878
[2] J.A. Pavlich-Mariscal, S.A. Demurjian, and L.D. Michel, A Framework for Security Assurance of Access Control Enforcement Code. Computers Security, vol. 29, Octobre 2010, pp. 770-784. DOI : 10.1016/j.cose.2010.03.004
[3] J.A. Pavlich-Mariscal, S.A. Demurjian, and L.D. Michel. A framework of composable access control features : Preserving separation of access control concerns from models to code. Computers Security, vol. 29, Mai 2010, pp. 350-379. DOI : 10.1016/j.cose.2009.11.005
[4] Rafael Teigão, Carlos Maziero, Altair Santin. Applying a usage control model in an operating system kernel. Journal of Network and Computer Applications, 16 Mars 2011
[5] Andreas Hansson, Marcus Ekerhult, Anca Molnos, Aleksandar Milutinovic, Andrew Nelson, Jude Ambrose, Kees Goossens. Design and implementation of an operating system for composable processor sharing. Microprocessors and Microsystems, Volume 35, Issue 2, Mars 2011, Pages 246-260
[6] (sous la direction de) Melissa Jane Dark. Information Assurance and Security Ethics in Complex Systems : Interdisciplinary Perspectives. Purdue University (USA), Août 2010, 340 pages
[7] Miguel E. Andrés, Catuscia Palamidessi, Peter van Rossum, Ana Sokolova. Information hiding in probabilistic concurrent systems. Theoretical Computer Science, Mars 2011
[8] TANENBAUM, Andrew. Systèmes d’exploitation. 3ème édition. Paris : Pearson Education France, 2008. 1052 pages
[9] Nikolai Mansourov and Djenana Campara. System Assurance / Beyond Detecting Vulnerabilities. Elsevier, 2011
[10] David Ferraioloa, Vijayalakshmi Atluria, Serban Gavrila. The Policy Machine : A novel architecture and framework for access control policy specification and enforcement. Journal of Systems Architecture, Volume 57, Avril 2011, Pages 412-424
[11] Erzurumlu Kerem, Kaya Aydin. The problems of public accessed computer laboratories and a suggestion for these problem’s solution. Procedia Computer Science, Volume 3, 2011, Pages 1520-1526
[12] Aliaksandr Lazouski, Fabio Martinelli, Paolo Mori. Usage control in computer security : A survey. Computer Science Review, Volume 4, Mai 2010, Pages 81-99

NB : Cet article est, à l’origine, un travail universitaire que j’ai réalisé en 2010/2011. Il est sous licence Creative Commons CC-BY-SA

 
Leave a comment

Posted by on November 27, 2011 in Des logiciels et des bibliothèques

 

Tags: , , , , ,

Des logiciels libres en bibliothèque

NB : Si vous n’êtes pas à l’aise avec les fondamentaux de l’open source, ce serait mieux que vous lisiez d’abord l’article Des petites choses que vous devez savoir sur l’open source.

Ça se répand comme une traînée de poudre ces temps-ci : les systèmes intégrés de gestion de bibliothèques (SIGB) comme Koha, Evergreen ou PMB séduisent de plus en plus de bibliothèques. En 2010, d’après librarytechnology.org, 12% des bibliothèques utilisaient des SIGB open source, et ce pourcentage augmente chaque année. Pourquoi ? Qu’est-ce que cela induit ?

Depuis 2008, les bibliothèques – comme bien d’autres structures – ont souffert de coupes budgétaires à cause de la crise financière. Et les SIGB sont un poste budgétaire important au sein d’une bibliothèque (en moyenne, le 2nd après les salaires). L’adoption de SIGB open source semble une bonne solution pour réduire les coûts : pas besoin de payer une licence d’utilisation chaque année, il est possible de modifier le code si nécessaire, on peut profiter des améliorations que d’autres bibliothèques apportent, et la philosophie de l’open source est assez séduisante quand on est étroitement lié à la circulation du savoir… Au premier regard, tout a l’air parfait et vous vous sentez prêt à sauter le pas.

Je suis désolée de vous dire ça mais s’il vous plaît, réfléchissez à deux fois. Les logiciels libres ont leurs faiblesses, eux aussi, et l’une des plus importantes est que vous aurez besoin de quelqu’un de compétent pour administrer votre SIGB. L’utilisation et l’administration d’un SIGB open source (en fonction de la taille de votre bibliothèque et du type de logiciel que vous choisissez) peut être un travail à plein temps. Vous aurez besoin que quelqu’un le fasse, et vous aurez besoin que cela soit fait sérieusement. Une simple mise à jour pouvant conduire au plantage du système complet, vous aurez besoin de faire des sauvegardes quotidiennes et d’avoir une connaissance basique du langage de programmation dans lequel votre SIGB libre sera codé (par exemple, Koha est en Perl).

Vous devez aussi vous préoccuper de vos usagers : ils se sont probablement habitués à l’interface de recherche de l’ancien SIGB, et ce ne sera pas facile pour eux de s’habituer à une nouvelle interface. Pensez aussi à ceux qui travaillent dans la bibliothèque, et surtout ceux qui utilisent le SIGB intensivement, par exemple les gens qui s’occupent des commandes et du pointage des revues. Peu importe qu’il soit open source ou pas : adopter un nouveau SIGB vous coûtera du temps et de l’argent. C’est une décision difficile à prendre.

Si vous pensez que vous n’avez pas déjà, en interne, quelqu’un de suffisamment compétent ou disponible pour administrer le nouveau SIGB que vous envisagez d’adopter, c’est peut-être le moment d’embaucher quelqu’un (un administrateur de systèmes d’information documentaires !). Si vous pensez que vous aurez besoin d’aide de temps en temps ou juste pour superviser la migration, rappelez-vous que certaines entreprises fournissent ce genre de prestations (vérifiez leurs références et faites jouer votre réseau professionnel pour fixer votre choix). Vous pouvez aussi décider de vous reposer sur la communauté d’utilisateurs, mais cela ne fonctionnera durablement que si vous appartenez à une petite structure et si vous pouvez vous passer de votre SIGB quelques jours (au cas où vous rencontreriez un problème sérieux).

Les projets libres reposent souvent sur l’efficacité de leur communauté – un bon projet a une communauté efficace avec un noyau dur de membres actif. Si vous choisissez une solution open source, pensez-y : vous ferez partie d’une communauté d’usagers, et le futur de votre SIGB reposera aussi (dans une certaine mesure) sur votre implication dans ladite communauté. Ne vous contentez pas d’appeler au secours quand vous rencontrez un problème : une bonne relation est basée sur la réciprocité.

Si vous êtes bibliothécaire-documentaliste ou informaticien, et si votre bibliothèque a effectué une migration d’un SIGB propriétaire vers un SIGB libre (ou si vous y songez sérieusement), merci de réagir à cet article pour nous faire part de votre expérience…

 
4 Comments

Posted by on November 22, 2011 in Des logiciels et des bibliothèques

 

Tags: , , , , , , , ,

Le Manifeste du bibliothécaire 2.0

Le Manifeste du bibliothécaire 2.0, écrit en 2006 par Laura Cohen, a eu pas mal de succès depuis sa parution. Le monde change et notre approche de la bibliothéconomie doit changer également. Je pense que la qualité principale de ce manifeste est qu’il nous le rappelle, et nous encourage à accueillir ce changement positivement. La résistance est futile, et si nous nous accrochons à nos vieilles habitudes, nous serons bientôt submergés de nouvelles requêtes provenant de nos utilisateurs que nous ne seront pas capables de satisfaire. Si nous ne pouvons pas combler les attentes de nos usagers, d’autres le feront – et qui embaucherait un bibliothécaire ou un documentaliste qui n’utilise que des techniques désuètes ? Si nous ne faisons pas l’effort d’évoluer pour les autres, faisons-le pour nous mêmes.

Alors comme ça, le monde change. Grande nouvelle ! Devons-nous donc imprimer des copies du Manifeste, l’apprendre par coeur et le lire à haute voix à chaque fois que nous devons prendre une décision ? Bien-sûr que non. Le Manifeste est utile parce que Laura Cohen, après avoir réfléchi à ce qui serait utile aux bibliothécaires dans la société de l’information, a essayé de nous donner des balises. Mais la carte n’est pas le territoire, donc chacun de nous devra trouver sa propre voie.

Le titre du Manifeste peut être compris comme “le bibliothécaire-documentaliste à l’époque du web 2.0”. Mais je le comprends différemment. C’est aussi le Manifeste des bibliothécaires 2.0, dans le sens où la profession a tellement évolué qu’on aurait presque besoin d’un nouveau terme pour la désigner. Le monde a changé et nous avons changé, en suivant l’évolution de la technologie. La bibliothéconomie a profondément changé. Par conséquent, les bibliothécaires-documentalistes qui sont à la pointe de la technique sont des “bibliothécaires 2.0”, et nous devons en être fiers. Ce n’est pas facile d’accepter le changement, et nous avons relevé le défi. Nous avons accepté l’idée que notre mission ne soit plus de fournir de l’information, mais plutôt de la rendre disponible pour les autres, d’organiser la connaissance et de former les usagers (culture informationnelle). Nous fûmes des fournisseurs d’information, et même des passeurs, maintenant nous sommes des artisans et des professeurs. Nous sommes profondément liés à l’évolution des technologies de l’information, comme beaucoup d’autres, et nous devons le considérer comme une relation d’intérêt réciproque plutôt que comme une forme moderne d’esclavage.

Si vous n’avez pas lu le Manifeste du bibliothécaire 2.0, je vous conseille de le faire (même si vous n’êtes pas bibliothécaire-documentaliste). C’est une réflexion brillante sur ce que la bibliothéconomie moderne devrait être. Mais il y a une étape suivante. Depuis 2006, le monde a évolué, et le Manifeste devrait évoluer également pour continuer à coller aux attentes du monde des bibliothèques qui est en mouvement perpétuel.

Qu’en pensez-vous ? Qu’ajouteriez-vous ou retrancheriez-vous au Manifeste ?

 
2 Comments

Posted by on November 22, 2011 in Défis de la société de l'information

 

Tags: , , , , , ,

Des petites choses que vous devez savoir sur l’Open Source

Nous en entendons parler tous les jours, mais savons-nous vraiment ce que c’est ? L’Open source semble désormais être partout, des systèmes d’exploitation (Linux, Android) aux systèmes intégrés de gestion de bibliothèque (Koha, PMB), et bien sûr, nous savons tous ce qu’est Open Office… Ce qui fut autrefois l’une des choses les plus geek qui soient est maintenant à la portée de l’utilisateur d’ordinateur moyen.

L’open source peut se comprendre comme une philosophie, une méthodologie, ou les deux. Il y a aussi un modèle économique de l’open source, étant donné que le mouvement open source est à l’origine de l’émergence de nouvelles structures et de grands changements dans la circulation de l’information. Je suis sûre que les bibliothécaires-documentalistes y sont sensibles. L’open source n’est pas une juste le logiciel libre : c’est bien plus vaste.

La première chose que vous entendez probablement à propos de l’open source c’est que quand un programme est open source, vous n’avez pas besoin de payer pour l’utiliser. Je suis désolée mais c’est faux. Dans certains cas, il vous faudra payer pour des programmes open source, et parfois les coûts seront très élevés. L’open source n’est pas une question d’argent.

Maintenant, définissons ce que l’open source est vraiment.

Derrière la philosophie de l’open source, il y a quatre libertés. Si l’une de ces libertés n’est pas garantie, quelque chose n’est pas open source. Je vais vous donner les définitions de la Free Software Foundation (sans doute l’instance principale du mouvement open source). Ils se focalisent sur les logiciels libres, mais vous pouvez, dans ce texte, replacer “logiciels” par ce que vous voulez… Il y a des recettes de cuisine open source, des préparations pharmaceutiques open source, des livres open source… Aucune limite sinon celles de notre imagination ! La listecommence par zéro – ne vous inquiétez pas, c’est juste de l’humour geek.

L’expression « logiciel libre » fait référence à la liberté et non pas au prix. Pour comprendre le concept, vous devez penser à la « liberté d’expression », pas à « l’entrée libre ».

“L’expression « logiciel libre » fait référence à la liberté pour les utilisateurs d’exécuter, de copier, de distribuer, d’étudier, de modifier et d’améliorer le logiciel. Plus précisément, cela signifie que les utilisateurs ont les quatre libertés essentielles :

  • La liberté d’exécuter le programme, pour tous les usages (liberté 0).
  • La liberté d’étudier le fonctionnement du programme, et de l’adapter à vos besoins (liberté 1). Pour ceci l’accès au code source est une condition requise.
  • La liberté de redistribuer des copies, donc d’aider votre voisin, (liberté 2).
  • La liberté de distribuer des copies de vos versions modifiées à d’autres (liberté 3). En faisant cela, vous pouvez faire profiter toute la communauté de vos changements. L’accès au code source est une condition requise.

Un programme est un logiciel libre si les utilisateurs ont toutes ces libertés. Ainsi, vous êtes libre de redistribuer des copies, avec ou sans modification, gratuitement ou non, à tout le monde, partout. Être libre de faire ceci signifie (entre autres) que vous n’avez pas à demander ou à payer pour en avoir la permission.

Vous devez aussi avoir la liberté de faire des modifications et de les utiliser à titre privé dans votre travail ou vos loisirs, sans en mentionner l’existence. Si vous publiez vos modifications, vous n’êtes pas obligé de prévenir quelqu’un de particulier ou de le faire d’une manière particulière.”

Maintenant que vous êtes familiarisé avec l’open source, un petit exemple… J’adore cuisiner, alors pourquoi pas une recette de cuisine ?

Une recette est open source si et seulement si vous :

* êtes libre de faire votre gâteau quand vous voulez, sans avoir à demander la permission de qui que ce soit ou à payer quoi que ce soit

* êtes libre d’étudier la recette et la manière dont elle fonctionne, de la changer ou l’améliorer si vous voulez (pourquoi ne pas ajouter un soupçon de cannelle à votre gâteau ?)

* êtes libre de redistribuer des copies de la recette à qui vous voulez

* êtes libre de redistribuer des copies de la recette modifiée de sorte que tout le monde puisse profiter de votre super gâteau choco-banane-cannelle et le modifier également (parce qu’il faut bien admettre que certaines personnes n’aiment pas la banane, et la remplaceront peut-être par des pommes)

Bien sûr, vous devez aussi rester être libre de garder vos modifications pour vous – certaines recettes spéciales doivent rester secrètes.

(Bonus : le premier commentaire de ce post est une recette open source de muffins à faire au micro-ondes)

Est-ce que la philosophie de l’open source est plus limpide pour vous maintenant ? Est-ce que vous réalisez que vous avez été confronté à des choses open source toute votre vie sans même vous en rendre compte ?

 
1 Comment

Posted by on November 22, 2011 in Défis de la société de l'information

 

Tags: , , , ,

Notions d’économie du logiciel libre en documentation

Au moins idéologiquement, l’intérêt avoué des logiciels libres était de permettre la mise en commun de connaissances et de permettre de travailler davantage à l’amélioration des programmes, et moins à l’élaboration de leur structure primaire. Il s’agissait aussi de permettre aux usagers de ne payer qu’une fois pour l’élaboration d’un logiciel, afin que ce qui avait déjà été payé – que ce soit en temps, par des bénévoles, ou en argent, par des entreprises rétribuant des programmeurs – ne le soit qu’une fois et soit ensuite mis à disposition de la communauté. Par ailleurs, la mise en valeur de quelques gros projets devait diminuer le nombre de logiciels disponibles sur le marché, afin d’améliorer la mobilité des personnels et des données (moins de temps à consacrer à la formation des personnes passant d’une entreprise à l’autre et donc potentiellement d’un logiciel à l’autre, moins de problèmes lors de partage de données en raison de l’existence de formats normalisés…). L’expérience montre qu’il n’en est rien.

Nous parlerons essentiellement des SIGB, étant donné le très large éventail de logiciels pouvant être, d’une manière ou d’une autre, utiles en bibliothèque. Le SIGB peut être considéré comme le produit « phare » en bibliothèque ou en centre de documentation, puisqu’il inclut l’essentiel des fonctionnalités nécessaires à la gestion d’une bibliothèque, depuis les acquisitions jusqu’à la gestion et des prêts et la consultation d’un catalogue en ligne (OPAC), en passant par la comptabilité, la création et le partage de notice et toute autre fonctionnalité jugée utile par ses concepteurs et ses usagers.

Depuis l’essor des logiciels libres destinés aux bibliothèques, aux alentours de 2005, on assiste au développement d’une offre de plus en plus importante de SIGB libres, qui ne viennent pas se subsituter aux logiciels propriétaires mais s’ajoutent à ceux-ci. Paradoxalement, on se retrouve donc à réinventer constamment la roue, avec la coexistence de nombreux projets indépendants en parallèle. Actuellement, on considère qu’il existe environ 125 « grands » SIGB, dont au moins un tiers sous licence libre. Chacun veut créer « son » SIGB libre au lieu de mettre ses compétences au service de projets déjà existants. On voit donc naître (et mourir) de nombreux projets libres, ce qui représente une perte de temps considérable.

On peut argumenter que l’existence d’un grand nombre de SIGB libres peut permettre aux usagers de choisir le logiciel le plus adapté à leurs fonds et à leurs besoins. Rien n’est plus faux. Si l’on veut répondre de manière pertinente aux besoins des usagers, la meilleure solution ne consiste pas à proposer le choix le plus vaste possible – ne serait-ce que parce que le danger est alors très grand de voir s’imposer un seul logiciel, non pas à cause de son efficacité mais à cause de sa réputation. L’offre est si vaste que l’usager n’a pas le temps et les moyens d’étudier en détail tous les logiciels disponible et se tourne vers le SIGB « à la mode », celui qui a la meilleure réputation, la plus grande communauté, ou qui a déjà été adopté par ses partenaires commerciaux.

La solution est donc de proposer un éventail de logiciels moins important – et de réunir plus de personnes dans chaque communauté, en jouant sur les effets de réseau pour atteindre une plus grande qualité – en proposant des logiciels de plus en plus modulables. La coexistence de « briques logicielles » pouvant s’assembler pour créer un SIGB « sur mesure » permettrait alors à une bibliothèque, lors du passage à un SIGB libre, de répondre très exactement à ses besoins, sans avoir à installer un programme très lourd comportant de nombreuses fonctionnalités dont elle ne se servira jamais.

On peut expliquer l’offre pléthorique actuelle de SIGB libres de plusieurs manières. Tout d’abord, un grand nombre de ceux-ci ont à leur origine une entreprise. Les entreprises actuelles, si certaines se mettent au libre parce que c’est « dans l’air du temps », continuent encore trop souvent à se comporter comme des sociétés éditrices de logiciels (avant tout), et non pas comme des prestataires de services. Il faut alors, pour acquérir une visibilité, proposer « son » SIGB, qui sera alors associé directement à la société – et faire reposer sa légitimité en tant que prestataire sur le fait que l’on est le mieux placé pour parler du logiciel, puisqu’on en est à l’origine.

Or, ce n’est pas parce que l’on propose le meilleur logiciel (en partant du principe que c’est le cas…) que l’on propose le meilleur service. On assiste aussi au développement de logiciels « hybrides », à mi-chemin entre le logiciel libre et le logiciel propriétaire, comme OpenFlora. La partie « libre » du logiciel sert alors de produit d’appel, mais il faut payer pour avoir accès à certaines fonctionnalités du logiciel, qui sont souvent les plus stratégiques. Il arrive aussi que l’éditeur du logiciel, à défaut de réussir à se rémunérer en tant que prestataire de services (formation, aide à la migration, conseil, maintenance…), soit contraint à limiter au maximum la diffusion du code du logiciel, afin de limiter le risque que d’autres entreprises le modifient et partagent les améliorations apportées au logiciel, comme le voudrait l’esprit du libre. Ce qui était à l’origine destiné à être mis à disposition du plus grand nombre devient alors un bien de club : le code est disponible, mais on fait en sorte de le rendre le plus illisible possible (en utilisant un langage de programmation peu répandu, ou en documentant très peu le code par exemple…), afin de s’assurer que personne ne se l’appropriera.

Il existe aussi une stratégie, qui consiste à faire du Saas, ou Software As A Service (ou Cloud Computing). L’usager paie alors pour une solution d’hébergement plus ou moins perfectionnée, et utilise le logiciel via un navigateur. Cette tendance tend à se généraliser, tant dans le monde du libre que dans le monde du logiciel propriétaire, et cela pose plusieurs problèmes. Tout d’abord, l’entreprise ne dispose plus de ses propres données, qui sont désormais hébergées chez le prestataire. Qui est alors responsable en cas de perte des données ? Et si le prestataire est victime d’un cambriolage (ce qui est toujours possible, étant donné la valeur accordée aux données de certaines entreprises, quel que soit le niveau de sécurité adopté par le prestataire) ? Et si les serveurs du prestataire sont piratés ? Et si le prestataire disparaît brusquement ? Et si certains salariés du prestataire en profitent pour se lancer dans l’espionnage économique ? Et si, pour une raison ou une autre, on n’a plus de réseau Internet mais qu’on a quand-même besoin d’accéder aux données de l’entreprise ? Par ailleurs, le Cloud a pour effet pervers de donner de l’informatique une image éthérée : plus de programme, plus de code, plus de problème. On entre dans le « tout virtuel » et les logiciels deviennent tellement modulables, paramétrables, ergonomiques, qu’on n’a plus du tout le réflexe d’aller voir le code pour le modifier et l’adapter. Pourquoi adopter une solution libre si c’est pour que le programme ne sorte jamais des serveurs du prestataire ?

L’autre explication tient au fait qu’un nombre encore important de programmeurs ne sont pas assez habitués à travailler en équipe ou à étudier l’offre de logiciels libres disponibles, surtout lorsque ceux-ci ne sont pas faciles d’accès – problèmes de communauté linguistique, par exemple. Une entreprise, une organisation ou une université fait alors développer un logiciel adapté à ses besoins particuliers, et le fait sous licence libre, pour diverses raisons. Chacun est très fier d’avoir fait son petit projet libre, d’associer son nom à celui d’un logiciel et d’être dans le camp des gentils libristes, même si il existe déjà un grand nombre de logiciels semblables et que l’on aurait gagné beaucoup plus à travailler à l’amélioration d’un logiciel existant.

La création d’un nouveau logiciel libre ne se fait alors pas pour des raisons économiques ou commerciales, mais pour des raisons d’image et d’égo. Il arrive en effet que s’attribuer la paternité d’un logiciel, en espérant qu’il se répandra, constitue en soi une rétribution suffisante pour celui qui en est à l’origine – on ne code alors pas pour le « fun » ou pour l’argent, mais pour la gloire… Vanitas vanitatis et omnia vanitas.

Conseil de documentaliste :

François Élie, Économie du logiciel libre, Eyrolles, 2009.

NB : Cet article appartient à une série d’articles sur les SIGB libres. Je les ai écrits en 2010 dans le cadre d’un travail universitaire, et ils ont fait l’objet de légères modifications avant la présente publication. Ils sont tous sous licence Creative Commons CC-BY-SA.

 
Leave a comment

Posted by on November 22, 2011 in Défis de la société de l'information

 

Tags: , , , ,