L’un des premiers séminaires s’est ouvert sur le vocabulaire des scripts sur ordinateur personnel, et pourquoi les entreprises et les nations devraient s’en préoccuper. Voici le bref à emporter. Le langage de script informatique est un langage informatique destiné à résoudre assez peu de problèmes de codage qui n’ont pas besoin de la surcharge des déclarations d’informations et d’autres fonctionnalités nécessaires pour rendre les grandes applications contrôlables. Les dialectes de script sont utilisés pour écrire des utilitaires de système d’exploitation, pour des programmes de manipulation de documents à objectif spécial et, parce qu’ils sont faciles à apprendre, parfois pour des applications considérablement plus volumineuses. Perl, un vocabulaire particulier, a été créé dans les années 80, initialement pour être utilisé avec le système d’exploitation UNIX. Il était censé avoir les capacités des dialectes de script précédemment. Perl a fourni de nombreuses façons d’énoncer des opérations communes et a donc permis à un programmeur d’adopter n’importe quelle conception appropriée. Dans les années 1990, il est devenu populaire en tant qu’outil de codage de méthode, à la fois pour les applications à faible puissance et pour les prototypes de types plus gros. Avec d’autres langages, il est également devenu bien connu pour la programmation de serveurs Internet d’ordinateurs personnels. Le système d’exploitation (OS) est un programme qui gère les sources d’un ordinateur, en particulier l’allocation de ces sources parmi d’autres applications. Les ressources typiques sont le périphérique de traitement central (CPU), la mémoire de l’ordinateur personnel, l’espace de stockage de documents, les périphériques d’entrée/sortie (E/S) et les connexions système. Les tâches d’administration incluent l’organisation de l’utilisation des sources pour éviter les conflits et les perturbations entre les applications. Contrairement à la plupart des applications, qui terminent un travail et se terminent, un système d’exploitation s’exécute indéfiniment et ne se termine que lorsque l’ordinateur est éteint. Les systèmes d’exploitation multiprocesseurs modernes permettent à de nombreuses méthodes d’être énergiques, dans lesquelles chaque processus est un « fil » de calcul utilisé pour exécuter un programme. Une forme unique de multitraitement est appelée temps partagé, qui permet à de nombreux clients de partager l’accessibilité informatique en basculant rapidement entre eux. Le temps partagé doit protéger contre les perturbations entre les programmes des utilisateurs, et la plupart des techniques utilisent la mémoire virtuelle, où la mémoire, ou « l’espace d’adressage », utilisée par un programme peut résider dans la mémoire secondaire (comme sur un disque dur magnétique) lorsqu’elle n’est pas en utilisation immédiate, pour être échangé et revenir pour reprendre la mémoire de l’ordinateur principal plus rapide en cas de besoin. Cette mémoire virtuelle soulève à la fois le problème de l’espace accessible à un programme et permet d’éviter que les programmes n’interfèrent les uns avec les autres, mais elle nécessite une gestion prudente par le système d’exploitation et certaines tables d’allocation pour garder une trace de l’utilisation de la mémoire. Le travail le plus délicat et le plus essentiel pour un système d’exploitation contemporain est peut-être l’allocation du CPU ; chaque processus est autorisé à utiliser la CPU pendant une courte période, qui peut être une petite fraction d’une autre, voyage incentive et après cela devrait quitter le contrôle et s’arrêter jusqu’à sa prochaine transformation. Le changement entre les processus devrait lui-même utiliser le processeur tout en protégeant toutes les données des processus. Le principal avantage d’un ordinateur multiprocesseur est la vitesse, et donc la possibilité de gérer de plus grandes quantités de détails. Parce que chaque processeur de cette méthode est conçu pour exécuter une fonctionnalité spécifique, il peut effectuer sa tâche, transmettre avec succès l’ensemble d’entraînement à la puce de processeur suivante et commencer à travailler sur un tout nouveau groupe de directions. Par exemple, différents processeurs pourraient être utilisés pour gérer le stockage de souvenirs, les communications de données ou les fonctions arithmétiques. Ou un processeur plus gros peut utiliser des puces de processeur «esclaves» pour effectuer diverses tâches de nettoyage de la maison, comme l’administration des souvenirs. Les techniques multiprocesseurs sont initialement apparues dans les gros ordinateurs appelés mainframes, avant que leurs dépenses ne diminuent suffisamment pour justifier leur ajout dans les ordinateurs personnels (Ordinateurs). Il faut cependant noter que le simple fait d’ajouter beaucoup plus de processeurs n’assure pas des gains substantiels en puissance de traitement ; les problèmes du système informatique demeurent. Alors que les programmeurs et les langages de codage informatique ont développé des compétences pour répartir les exécutions entre un petit nombre de processeurs, l’analyse des directions au-delà de deux à 8 processeurs est impraticable pour de nombreux travaux, mais les plus récurrents. (Heureusement, bon nombre des applications technologiques typiques des superordinateurs impliquent d’appliquer exactement la même formule ou le même calcul à un large éventail de données, ce qui est un problème difficile mais traitable.)