• Kommentar : Unterirdische Kubernetes-Qualität – Containerland ist abgebrannt
    https://www.heise.de/meinung/Kommentar-Unterirdische-Kubernetes-Qualitaet-Containerland-ist-abgebrannt-8990

    Un averissement contre les dangers de Kubernetes

    8.5.2023 von Martin Gerhard Loschwitz - Waren Sie in den letzten Jahren mal auf einer IT-Messe oder hatten Sie Vertreter von Red Hat, Suse & Co. im Haus, die Sie über die neuesten Trends der Branche informiert haben? Falls ja, werden Sie ein Wort penetrant gehört haben: Kubernetes. Kaum ein Tag vergeht derzeit, an dem nicht irgendein Start-up irgendein neues Produkt auf den Markt wirft, das Kubernetes noch besser, noch stabiler und noch vielseitiger machen soll.

    Gleich vorab: Natürlich hat das maßgeblich von Docker etablierte Prinzip der Container unter Linux seine Vorzüge. Und wer Cloud-native Anwendungen im Flottenverbund steuern möchte, braucht dafür nolens volens einen Flottenorchestrierer. Doch rechtfertigt die Qualität von Kubernetes, dessen Entwicklungsgeschichte einst bei Google begann und das mittlerweile mit viel finanziellem Bumms und sogar einer eigenen Stiftung ausgestattet ist, nicht den Hype. Denn Administratoren, die mit Kubernetes produktiv arbeiten wollen oder müssen, merken sehr schnell: Technisch steht Kubernetes viel zu oft mit heruntergelassener Hose da.

    Kein Spaß mit Versionen

    Das geht mit vermeintlichen Kleinigkeiten los. Das Semiotic Versioning, kurz SemVer, gilt in der Open-Source-Szene heute als De-facto-Standard für Versionsschemata. SemVer macht klare Vorgaben hinsichtlich der Versionsnummern, die für neue Versionen von Software zu nutzen sind. Grundsätzlich bestehen Versionsnummern nach SemVer aus drei Teilen: Major-Releases ändern demnach die erste Zahl der Version, sie sind durch API-Änderungen gekennzeichnet, die mit der bisherigen Implementierung des Programms inkompatibel sind. Minor-Releases führen neue Funktionen ein, behalten aber die Kompatibilität zur API des Vorgängers bei. Bugfix- oder Patch-Releases ändern den dritten Teil der Versionsnummer.

    Wer mit dieser Erwartungshaltung allerdings an die Kubernetes-Verwaltung herangeht, erlebt früher oder später unweigerlich sein blaues Wunder – denn Kubernetes kocht lieber sein eigenes Süppchen und pfeift auf den SemVer-Standard. Bei Reddit hat man das auf die harte Tour gelernt: Hier nahm das vermeintliche Minor-Update von Kubernetes 1.23 auf Kubernetes 1.24 die Plattform für mehrere Stunden offline. Ursache: Aus der Bezeichnung master in einer URL war in der API von Kubernetes zwischenzeitlich control-plane geworden, die Version 1.24 hatte die Unterstützung für die alte Variante ersatzlos gestrichen.

    „Schade, Schokolade“, könnte man denken, sowas kommt eben vor. Doch lässt der Vorfall nicht nur den Rückschluss zu, dass Kubernetes ein Problem mit seinem Versionsschema hat. Stattdessen tritt hier ein tiefgreifendes Qualitätsproblem hinsichtlich der Architektur der Software offen zutage, das Kubernetes in Sachen Benutzung ebenso behindert wie in Sachen Entwicklung. Und das, was Reddit erlebt hat, ist beileibe kein Einzelfall.

    Das merkt man schnell, wenn man sich mit der Software auch nur innerhalb der Demo-Szenarien befasst, die deren eigene Dokumentation vorgibt. Auf dem Papier ist die Einrichtung von Kubernetes trivial. Das liegt unter anderem daran, dass Kubernetes den größten Teil der von ihm benötigten Software selbst ausrollt und steuert. Wer so vorgeht und der Anleitung Schritt für Schritt folgt, sollte am Ende also einen funktionierenden Cluster haben. Doof nur: Selbst in einer Laborumgebung aus frischen VMs mit funktionalem Netz und funktionalem Storage lässt sich eben dieses Setup nicht mit absoluter Zuverlässigkeit reproduzieren. Regelmäßig verweigert etwa CoreDNS den Dienst. Der kümmert sich in Kubernetes um die interne Auflösung von DNS-Namen, von denen der Container-Orchestrierer ebenso wie Drittanbieterlösungen zum Teil exzessiven Gebrauch macht. Warum die CoreDNS-Pods – so heißt im Kubernetes-Sprech der Verbund aus einem oder mehreren zusammenhängenden Containern – nicht funktionieren, ist dabei kaum sinnvoll herauszufinden. Ihr Neustart sorgt aber dafür, dass der Dienst auf gar wundersame Art und Weise von den Toten wiederaufersteht. Vertrauenerweckend ist das nicht.

    Und die Liste der Kubernetes-Probleme ließe sich an dieser Stelle beliebig fortsetzen. So setzt Kubernetes ähnlich wie der Linux-Kernel auf Namespaces, um Ressourcen logisch voneinander zu trennen. Namespaces lassen sich löschen – und laut Lehrbuch führt das eigentlich dazu, dass auch die zum Namespace gehörenden Ressourcen ihren Weg in die ewigen Jagdgründe antreten. Genau das funktioniert aber nicht konsistent. Im schlimmsten Fall führt das Löschen eines Namespaces dazu, dass ein paar von dessen Ressourcen als Zombies übrig bleiben, aber über die Namespace-API nicht mehr erreichbar sind. Dann pult der Administrator irgendwelche obskuren kubectl-Befehle aus Google oder muss gleich mit curl und einem per REST-API injiziertem JSON-Snippet anrücken, um Kubernetes in einen funktionalen Zustand zurückzuversetzen. Schlimmer noch: Zum Teil ist gar nicht definiert, wie Kubernetes mit widersprüchlichen Anweisungen umgehen soll. Was etwa mit PVCs – Persistent Volume Claims, also alloziertem Blockspeicher von Instanzen – geschehen soll, deren Reclaim-Policy zwar auf Retain – also Behalten – steht, deren Namespace jedoch gelöscht wird, hat mehr mit Roulette gemein als mit zuverlässiger Systemadministration.

    Widewidewitt, denkt sich Kubernetes, und macht sich die Welt, wie sie ihm gefällt. Dasselbe gilt für nicht wenige Kubernetes-Entwickler: Im Bug-Tracker des Tools finden sich mittlerweile zahllose Einträge, in denen Anwender von inkonsistentem und fehlerhaftem Verhalten berichten, ohne die Ursache dafür ausfindig gemacht zu haben. Fast schon eine Standardantwort ist dann, dass man das Deployment der Anwendung oder am besten gleich das ganze Kubernetes wegwerfen und neu ausrollen soll, weil das Problem dann vermutlich verschwinde. Administratoren nützt dieser Ansatz allerdings nichts, denn sie haben so schlicht keine Möglichkeit, Software zuverlässig auszurollen und zu betreiben.

    Man hätte es wissen können

    Wenn die Vertreter der Hersteller weg sind, ist der Alltag eines Kubernetes-Administrators am Ende regelmäßig ein Kampf gegen zum Teil absurde Qualitätsmängel der Software. Die zahllosen Werkzeuge, Aufbauten, Erweiterungen und Integrationen in andere Dienste, mit denen seriöse Firmen ebenso wie Glücksritter aktuell ein Stück des Kubernetes-Kuchens zu ergattern versuchen, helfen da auch nicht weiter – zumal deren Qualität oft vergleichbar unterirdisch ist. Ein erquicklicher Anteil der Probleme, die Kubernetes heute beuteln, sind architektonischen Ursprungs. Das Argument, man habe es eben nicht besser gewusst, zieht dabei nicht: Verteilte Systeme sind zwar komplex – Kubernetes war aber nicht die erste Software, die diese Probleme lösen musste.

    Ein paar Jahre zuvor erst lief man bei OpenStack in viele derselben Probleme, mit denen auch Kubernetes sich herumschlägt. Einige Entwickler aus dem Kubernetes-Universum indes, zum Teil selbst einst in OpenStack aktiv, hielten die OpenStack-Macher für eine Bande ausgemachter Idioten. Deren Warnungen stießen deshalb meist auf taube Ohren – sogar dann, wenn man bei OpenStack Ansätze in Kubernetes kritisierte, weil man sie selbst vor Jahren ausprobiert hatte und damit auf die Nase geflogen war. Fakt ist: Dienste wie OpenStack Heat für Orchestrierung innerhalb der Cloud oder Nova, das virtuelle Instanzen verwaltet, hatten gerade anfangs mit ähnlichen Konsistenzproblemen zu kämpfen wie Kubernetes heute. Sic transit gloria mundi: Auch wenn es kaum noch jemanden interessiert – mittlerweile hat OpenStack diese Probleme praktisch komplett im Griff.

    Kubernetes nicht. Es wäre aktuell insofern ein guter Zeitpunkt für die Kubernetes-Community, innezuhalten und sich den drängendsten Architektur- und Konsistenzproblemen zu widmen, statt weiter an der Feature-Schraube zu drehen. Zweifelsohne ist Kubernetes bis hierhin eine – vor allem kommerzielle – Erfolgsgeschichte. Soll das Werkzeug sich aber dauerhaft am Markt etablieren und erfolgreich bleiben, muss es zuverlässiger, stabiler und ganz allgemein besser werden. Dass Container gekommen sind, um zu bleiben, ist mittlerweile unstrittig. Dass Kubernetes bleibt, nicht so sehr.

    Martin Gerhard Loschwitz ist freier Journalist und beackert regelmäßig Themen wie OpenStack, Kubernetes und Ceph.

    #logiciels #virtualisation #cloud

  • Pour satisfaire votre désir d’ailleurs, essayez le virtuel.

    Covid-19 : à Angers, le virus contraint la clientèle des voyagistes à la sédentarité, ils innovent !
    https://france3-regions.francetvinfo.fr/pays-de-la-loire/maine-et-loire/angers/covid-19-a-angers-le-virus-contraint-la-clientele-des-v

    Voyager en visioconférence

    Arthur Thénot organisait des séjours en Amérique du sud. A l’arrêt, il a eu l’idée de continuer les rencontres à travers des ateliers animés par des prestataires locaux. Ce soir-là, il est en direct dans la cuisine de Marisol au Mexique, un voyage et une rencontre en visioconférence : « On a une double problématique c’est de continuer d’être visibles et d’animer notre communauté de voyageurs et surtout de garder un lien avec nos partenaires locaux qui ont vécu un confinement très dur. Par exemple, en Argentine, ça a duré 6 mois. Ça leur permet, depuis chez eux, de partager un moment convivial avec les voyageurs, c’est ce qu’ils aiment faire ».

    Un rendez-vous suivi par une quinzaine de personnes. Les partenaires sont rémunérés à la connexion pour chaque intervention. Une alternative pour garder du lien, même depuis l’autre bout de la planète !

    Pour un voyage « intérieur », il vous faudra être candidat·e à une expérimentation sous surveillance médicale :

    https://www.ledauphine.com/france-monde/2017/10/14/les-champignons-hallucinogenes-efficaces-contre-la-depression

    #virtualisation #distanciel #dépression #isolement
    (Je n’aime pas l’expression « distanciation sociale ») ...

  • Les #globes de #Mercator – du XVIe au XXIe siècle

    Suite à la découverte, à l’UNIL, d’une authentique paire de globes terrestre et céleste du XVIe siècle, une version virtuelle en ligne permet à tous d’explorer ces chefs-d’œuvre.

    Une découverte incroyable

    Imaginez une carte du monde que vous pouvez parcourir d’un simple mouvement du doigt sans jamais en atteindre le bord ; une carte qui ne déforme pas ses continents, qui n’altère pas les distances. D’un coup de loupe, vous découvrez une multitude d’informations. Cette carte ajouterait les données les plus récentes accessibles à la technologie moderne aux connaissances des anciens.

    Evidemment, une telle carte est impossible à réaliser en deux dimensions à cause des déformations introduites lors de l’ « aplatissement » de la planète sur le papier.

    Cette « carte » idéale, Gerardus Mercator essaya de la réaliser au XVIe siècle sous la forme de deux globes, l’un terrestre et l’autre céleste. De tels objets existaient déjà, mais étaient auparavant des exemplaires uniques et donc fort coûteux. Grâce aux dernières innovations de l’imprimerie, il parvint à les produire en grand nombre et les diffuser à travers toute l’Europe. Maîtrisant l’ensemble des opérations de conception et fabrication, il fit de son affaire familiale un succès commercial certain.

    On ignore combien de globes furent fabriqués au cours des quelque 40 ans que dura leur production, mais les exemplaires ayant survécu jusqu’à nos jours ne sont que quelques dizaines. C’est dès lors avec stupéfaction et une certaine incrédulité initiale, qu’une paire de globes estampillés Gerardus Mercator Rupelmundanus fut découverte en 2004 dans les locaux du Cubotron, le bâtiment de physique de l’UNIL.

    Sous la conduite passionnée autant que rigoureuse de Micheline Cosinschi (professeure FGSE) et Géraldine Falbriard (Unicom), ces antiquités furent soumises à une batterie d’analyses de pointe afin d’une part de vérifier leur authenticité et d’autre part d’en savoir plus sur leur structure et mode de construction. C’est ainsi que le bois de leurs socles fut analysé par les techniques du carbone-14 et de la dendrochronogie, qui prouvèrent que leur âge était compatible avec leur date de construction supposée. Pour dater les globes eux-mêmes, des fibres furent prélevées dans leur épaisseur et soumises à diverses analyses de radiocarbone, dont les résultats vinrent confirmer les précédents. La colle, les pigments, tout concorde : ce sont d’authentiques originaux du XVIe siècle.

    Il est à noter que les globes de l’UNIL sont les premiers à avoir été authentifiés de manière aussi complète et rigoureuse et ils font maintenant figure d’« étalon » dans le domaine.

    Après un méticuleux travail de restauration et de conservation, ces chefs-d’œuvre peuvent maintenant quitter les laboratoires d’analyse et les sous-sols sécurisés pour s’exposer à la vue du public. Ils firent d’ailleurs une première apparition fort remarquée de mai à juillet à l’Espace Arlaud (Lausanne).

    #Virtualisation
    Toutefois, une exposition a ses limites. Impossible en effet de toucher les globes, de les faire tourner, de s’en approcher, ce qui en rend certaines parties difficilement visibles ou mal éclairées. Afin de permettre à tout un chacun de visualiser l’œuvre de Mercator sous ses moindres coutures, il fallait en faire une version virtuelle, visible sur Internet. Nous voulions également que le modèle informatique puisse être aisément comparable aux cartes modernes, que l’on puisse en représenter différentes parties avec le minimum de déformation. Pour toutes ces raisons, il fut décidé de modéliser les globes dans le Système d’Information Géographique (#SIG) #ArcGIS.


    http://wp.unil.ch/cinn/2018/08/les-globes-de-mercator-du-xvie-au-xxie-siecle
    #cartographie #cartographie_historique #histoire #visualisation #modélisation
    cc @fil @reka

  • Data Journalism Tools - Silk
    http://data-journalism-tools.silk.co

    This Silk is a structured database listing tools and resources that (data) journalists might want to include in their toolkit. We tried to cover the main steps of the ddj process: from data collection and scraping to data cleaning and enhancement; from analysis to data visualization and publishing. We’re trying to showcase especially tools that are free/freemium and open source, but you will find a bit of everything.

    #visualisation_de_données

  • Fin du #Support_Windows_Server_2003
    http://www.dsfc.net/infrastructure/fin-support-windows-server-2003

    Windows Server 2003 aura marqué son époque par sa simplicité d’emploi et la faible consommation de ressources.Autres lectures sur le thèmeLes quotas et le spam dans Exchange 2007Novell maintient le support Netware jusqu’à 2015 !Support de cours – Tutorial PowerShell 3.0

    #Infrastructure #ipv6 #Microsoft #Support_Windows_XP #Virtualisation #Windows_Server_2003 #Windows_Xp

  • Sur l’#Université Virtuelle Sénégalaise | Hady Ba’s weblog
    https://hadyba.wordpress.com/2015/02/27/sur-luniversite-virtuelle-senegalaise

    L’UVS en effet, quoique à certains points de vue unique au monde, s’inscrit dans un mouvement global de #virtualisation de l’#enseignement supérieur. Depuis le début des années 2000, avec la mise en ligne intégrale des cours du MIT, l’idée de démocratiser à peu de frais, grâce à #internet, l’enseignement supérieur le meilleur au monde a fait son chemin. Les #MOOC (acronyme anglais pour cours en ligne ouvert et massif) sont l’aboutissement de cette œuvre pionnière et l’UVS est une forme, certes particulièrement sommaire, de MOOC. Il existe donc une histoire des MOOC et surtout il existe maintenant des études scientifiques qui nous apprennent exactement dans quelle mesure les MOOC sont utiles et à quelles fins on devrait les utiliser. La décision de mettre en place l’Université Virtuelle Sénégalaise semble malheureusement avoir été prise en ignorant totalement ces études. Or que nous apprennent-elles ?

    La plus célèbre de ces études est celle effectuée sur les étudiants de l’Université d’État de San José aux États Unis. Menée par Sebastian Thrun, le fondateur d’Udacity, une des premières plateformes de cours en ligne, elle a montré que, pour la grande majorité des étudiants, les cours à distance sur internet sont beaucoup moins efficaces que les cours en présentiel. Le taux de rétention est très bas et pour ceux qui arrivent à compléter les cours et qui passent les examens, les taux d’échecs sont plus importants que pour des enseignements en présentiel. Le résultat principal de cette étude, qui reviendra constamment dans tous les travaux ultérieurs sur les MOOC, est qu’il y a une petite minorité d’environ 5% –les étudiants qui ont la double caractéristique d’être déjà bien formés et d’être extrêmement motivés– pour lesquels cet enseignement à distance est approprié. Pour tous les autres, l’échec est massif et beaucoup plus important que dans une formation classique. L’autre étude de référence menée par l’Université de Pennsylvanie souligne ce caractère élitiste des cours massifs en ligne puisque 80% des inscrits sur leur plateforme sont déjà titulaires d’un diplôme universitaire. Quant au rapport sur l’éducation en ligne des professeurs Hollands et Tirthali du Teachers College de l’université de Columbia, il montre que d’une part, ainsi qu’on l’a déjà dit, ce type d’enseignement est inadapté à un public non expérimenté ; mais surtout, d’autre part, que le développement d’un enseignement en ligne de qualité est couteux à la fois en ressources humaines et en ressources financières.

    Que nous apprennent ces études une fois rapportées à la situation sénégalaise ? Essentiellement que la virtualisation est un miroir aux alouettes incapable de résoudre les problèmes auxquels le Ministère en charge de l’enseignement supérieur a à faire face. Notre problème en effet est d’avoir un trop plein de bacheliers et une #pénurie de #ressources financières à consacrer à leur éducation. Créer une université virtuelle pour y orienter ces bacheliers n’est pas une solution à nos difficultés financières si l’on sait que la mise en place d’un enseignement à distance de qualité est un processus coûteux. Rien que cette semaine, l’État du Sénégal a emprunté 3,5 milliards de nos francs pour développer la plateforme de l’Université Virtuelle. Il y a fort à parier qu’entre la construction des Espaces Numériques Ouverts disséminés dans tous le pays, la production des cours par des enseignants, la subvention des ordinateurs des étudiants orientés à l’UVS, etc., l’État se retrouvera à payer plus cher pour un étudiant orienté à l’UVS que pour un étudiant orienté à l’UCAD.

  • Les poupées gigognes expliquées aux linuxiens débutants

    Quels usages pour la #virtualisation domestique - Le Blog de Cyrille BORNE
    http://cyrille-borne.com/article38/quels-usages-pour-la-virtualisation-domestique

    Quels usages pour la virtualisation domestique
    Rédigé par Cyrille BORNE - 09 décembre 2014 -
    Lorsque vous allumez votre ordinateur vous êtes sous un système d’exploitation, #Linux en l’occurrence car vous avez bon goût. La virtualisation consiste à installer un autre système d’exploitation dans votre système d’exploitation. J’insiste bien dans, et pas à côté, si c’était à côté, ce serait du Dual Boot, c’est à dire qu’on démarre sur un système d’exploitation ou un autre. Ici il s’agit concrètement d’un système d’exploitation que vous lancez dans votre système d’exploitation, un peu comme les poupées gigognes. Le système d’exploitation ou machine virtuelle se lance au travers d’une application, la plus conviviale étant actuellement Virtualbox. Quel intérêt ?

  • Virtual Machine Images
    VM Depot–find, deploy and share images for Windows Azure
    http://vmdepot.msopentech.com/List/Index

    VM Depot is a community-driven catalog of preconfigured operating systems, applications, and development stacks that can easily be deployed on Windows Azure. Find your favorite software and deploy it in minutes, or join the community, build a virtual machine image, and share it with others. Learn more.

    VM Depot is brought to you by Microsoft Open Technologies, Inc., a subsidiary of Microsoft Corporation. The virtual machine images on this site are provided and licensed to you by community members. Microsoft Open Technologies does not screen these images for security, compatibility or performance, and does not provide any license rights or support for them.

    Du #open-source de chez #Microsoft
    #virtualisation

  • Archipel Project
    http://archipelproject.org

    You can use all libvirt-supported virtualization engines like KVM, Xen, OpenVZ or VMWare. You can perform all basic virtualization commands and many other things like live migration, VMCasts, packages, etc.

    Real time

    Archipel uses #XMPP for all communication. There is no webservice or custom protocol. You just need at least one XMPP server — like #eJabberd — to start playing with it. This allows Archipel to work completely real time.

    #virtualisation

    Ouah !! J’ai posté un trucmuche en zanglé. Faudra que je fête ça

  • TEDxParis » Nicole Turbé-Suetens : Télétravail d’avenir
    http://www.tedxparis.com/nicole-turbe-suetens-teletravailler-autrement

    résumé : le #télétravail à temps partiel c’est win-win pour le salarié (je te dis même pas), pour la boîte (parce qu’on bosse mieux), et pour la société (relocalisation de l’économie, économies d’énergie et de carburant, médical et tout)

    http://www.youtube.com/watch?v=abNCXlEpTWs&feature=player_embedded

    #travail #transports #fatigue #santé #productivité

  • How to install Ubuntu in OS X using Parallels - a complete walkthrough - Simplehelp
    http://www.simplehelp.net/2006/09/18/how-to-install-ubuntu-in-os-x-using-parallels-a-complete-walkthrough

    This tutorial will take you every single step of the way through installing Ubuntu 6.06 using Parallels for OS X. In other words, even your parents should be able to follow along.

    #mac #logiciel #type:tutoriel #linux #ubuntu #parallels #virtualisation #émulation