Chapitre I : Généralités
L’informatique est la science qui s’occupe du traitement automatique de l’information à l’aide d’un ordinateur. L’ordinateur est une machine électronique programmable, il est utilisé dans plusieurs domaines tels que : médical, financier, éducatif, etc. Tous ces domaines sont basés sur les fonctionnalités de l’ordinateur et leurs applications.
Ce chapitre s’attache au domaine informatique. Tout d’abord, la définition des éléments de base, ensuite l’historique de l’informatique. Enfin on va souligner le rôle de l’informatique aujourd’hui dans la dernière section.
I. Notions de base
Informatique (Computer science)
C’est une contraction des mots « information » et « automatique ». L’informatique est en effet la science du traitement automatique de l’information en utilisant des machines automatique équipées des logiciels.
Ordinateur (Computer)
C’est une machine électronique capable de traiter toute sorte d’information (texte, image, son…). On distingue plusieurs types de machines : Ordinateur personnel (PC), serveur, superordinateur, ordinateur embarqué, PDA (Personal Digital Assistant), smartphones.
Données (Data)
Ce sont des éléments bruts et non organisés, qui n’ont pas encore été interprétés. Par exemple, dans un tableau qui contient les informations personnelles des étudiants, la date de naissance (23/05/1999) de l’étudiant X est une donnée.
Information
Lorsque les données sont traitées, organisées, structurées (processing) ou présentées de manière à les rendre utiles ou significatives, elles sont appelées informations. Donc, une information est une donnée avec une sémantique associée. L’information en générale est utile pour prendre des décisions.
Traitement (Processing)
Dans le domaine informatique on distingue trois types de traitement.
· Traitement automatique : lorsque les opérations de traitement des données sont effectuées par les humains.
· Traitement manuel : lorsqu’un humain utilise un logiciel pour donner le résultat. Ici le logiciel ne sert pas à traiter les données mais il sert à les stocker le résultat saisi par l’humain.
· Traitement semi-automatique : lorsqu’on a recours à la fois aux deux méthodes précédentes.
Algorithme
C’est la description d’une suite d’étapes permettant d’obtenir un résultat à partir d’éléments fournis en entrée. Pour qu’un algorithme puisse être mis en œuvre par un ordinateur, il faut qu’il soit exprimé dans un langage informatique, sous la forme d’un logiciel (souvent aussi appelé « application »)
Programme :
Un programme informatique consiste en un ensemble d’instructions dans une séquence ordonnée afin d’exécuter certaines tâches spécifiées par l’utilisateur. Souvent, un programme est mis en œuvre sur la base d’un algorithme. Un programme peut fonctionner avec ou sans jeu de données.
Exemple : Programme de calcul de la somme de deux nombres entiers, programme de transformation des lettres minuscule en majuscule, etc.
Logiciel (Software)
Un logiciel est un ensemble de programmes informatiques.
Un programme informatique est donc une instruction particulière dans un logiciel. Donc, pour Excel, il y a un programme pour imprimer, un programme pour recalculer les cellules lorsqu’une valeur est changée quelque part, etc.
On distingue deux types de programmes :
· Programme interactif : lorsque le programme est en exécution, l’utilisateur peut manipuler le programme et les données du programme. Par exemple, le navigateur, Excel, Word, etc.
· Programme batch : c’est un programme autonome qui s’exécute tout seul et s’arrête tout seul sans intervention de l’utilisateur. En plus, il ne nécessite pas de données. Exemples : les batch du système d’exploitation.
Informatique de gestion : Discipline qui concerne la science de la gestion et du traitement automatique de l’information utile et nécessaire pour gérer et administrer les affaires de toute ou d’une partie d’une organisation afin d’assurer sa rentabilité.
L’informatique de gestion alors utilise les technologies de l’information pour améliorer la gestion des entreprises et des organisations. Elle permet de traiter, stocker, analyser et communiquer des données et des informations, en automatisant des processus et des tâches, afin d’optimiser la performance, l’efficacité et la prise de décision.
L’informatique de gestion peut inclure des systèmes de gestion des stocks, des systèmes de comptabilité, des logiciels de gestion des ressources humaines, des systèmes de gestion de la relation client (CRM), des systèmes de gestion de projet, des outils d’analyse de données, des outils de business intelligence, et plus encore.
L’informatique de gestion peut aider les entreprises à réduire les coûts, à améliorer l’efficacité et la productivité, à prendre des décisions éclairées et à être plus compétitives sur le marché. C’est pourquoi l’informatique de gestion est devenue une composante essentielle de la gestion d’entreprise dans de nombreux secteurs d’activité.
II. III. Historique de l’informatique
II.1 Evolution des ordinateurs
Avec le début de la seconde guerre mondiale et jusqu’à maintenant, l’ordinateurs a passé une série d’évolutions dans les parties physiques et logiciels. Ces évolutions s’appellent les générations des ordinateurs. Les caractéristiques les plus importantes :
· Composants électroniques utilisés dans les ordinateurs.
· Langages de programmation utilisés.
· Les systèmes d’exploitation.
· Le temps d’accès :
· Les périphériques de stockage des données
· La diversité des usages dans différents domaines.
· La longueur du temps pour chaque génération.
L’évolution des ordinateurs a été caractérisée par plusieurs phases, depuis la création des premiers ordinateurs électroniques jusqu’aux ordinateurs portables, tablettes et smartphones d’aujourd’hui. Voici une brève description de ces différentes phases :
· Les premiers ordinateurs électroniques ont été développés dans les années 1940. Ils étaient énormes, coûteux et complexes à utiliser, et étaient principalement utilisés pour des applications scientifiques et militaires.
· Dans les années 1950, les ordinateurs ont commencé à être utilisés pour des applications commerciales, avec l’apparition de systèmes de traitement de données et de facturation. Les ordinateurs de cette époque étaient encore très coûteux et peu accessibles pour la plupart des entreprises.
· Dans les années 1960, les ordinateurs ont commencé à être miniaturisés, avec l’apparition de microprocesseurs. Cela a permis de créer des ordinateurs plus petits et moins coûteux, qui ont été largement utilisés dans les centres de calculs.
· Les années 1970 ont vu l’apparition des ordinateurs personnels, avec des modèles tels que l’Apple II et le Commodore PET. Ces ordinateurs étaient beaucoup plus accessibles pour le grand public, et ont permis l’essor de l’informatique personnelle.
· Dans les années 1980, les ordinateurs ont connu une grande évolution avec l’apparition des ordinateurs portables, qui ont permis une plus grande mobilité, ainsi que des ordinateurs dotés d’une interface graphique utilisateur (GUI) plus intuitive, tels que le Macintosh d’Apple.
· Les années 1990 ont vu l’apparition d’Internet et du World Wide Web, ce qui a transformé l’informatique en un outil de communication et d’interaction mondiale. Les ordinateurs ont également connu une évolution vers des processeurs plus puissants et des capacités de stockage plus importantes.
· Depuis le début des années 2000, les ordinateurs portables, les tablettes et les smartphones ont connu une explosion de popularité, permettant une utilisation encore plus mobile et une connectivité permanente. Les ordinateurs sont également devenus plus fins, plus légers, plus puissants et plus polyvalents, avec des écrans tactiles et des fonctionnalités de réalité virtuelle ou augmentée.
Cette évolution des ordinateurs a permis de réduire considérablement leur coût, de faciliter leur utilisation et d’élargir leur champ d’application, permettant ainsi une plus grande accessibilité pour le grand public.
En raison du développement rapide et important de l’informatique, les êtres humains introduisent maintenant l’intelligence artificielle pour produire des ordinateurs intelligents, imitant les capacités des êtres humains.
II.2 Evolution des outils informatiques
Le terme réel de « logiciel » n’a pas été utilisé avant la fin des années 1950. Pendant cette période, un certain nombre de différents types de logiciels de programmation ont été créés. La plupart des premiers logiciels n’étaient pas disponibles dans le commerce. Les utilisateurs d’ordinateurs (principalement des scientifiques et des grandes entreprises) devaient souvent écrire eux-mêmes leurs logiciels. Cela présentait certains avantages : le logiciel était adapté aux besoins spécifiques de l’utilisateur et ce dernier comprenait exactement ce que faisait le logiciel. Cependant, les inconvénients étaient bien plus importants. Chaque entreprise ou laboratoire devait avoir quelqu’un capable de programmer l’ordinateur, et le logiciel ne pouvait souvent pas être échangé avec d’autres parce qu’il avait été créé pour un système informatique spécifique.
Lorsque les ordinateurs sont devenus suffisamment petits pour être vendus aux particuliers, les logiciels sont devenus beaucoup plus répandus. Les particuliers ne pouvaient pas programmer eux-mêmes leurs ordinateurs – la personne moyenne ne voulait pas prendre le temps d’apprendre les langages de programmation. C’est pourquoi le système d’exploitation a été créé. Ce logiciel spécialisé faisait fonctionner l’ordinateur et lançait d’autres logiciels selon les besoins de l’utilisateur. L’un des premiers systèmes d’exploitation était MS-DOS, le système d’exploitation utilisé par la plupart des premiers ordinateurs IBM.
IBM a commencé à vendre des logiciels à la fin des années 1960 et au début des années 1970. C’était la première fois que des logiciels commerciaux étaient disponibles pour le client moyen, et la possibilité d’ajouter différents types de programmes à tout ordinateur est rapidement devenue populaire.
Des programmes contaminant d’autre applications ont existé depuis les années 1970 mais le nom pour ce type de logiciel date du 10 novembre 1983. Ce jour-là, Fred Cohen alors étudiant en doctorat présente les résultats de ses travaux et comment il a écrit un “virus” (caché dans un programme appelé VD) pour le mini-ordinateur VAX. Le premier Virus informatique a grande diffusion est Brain et a été écrit sur un PC par 2 frères pakistanais. L’adresse et le numéro de téléphone de ceux-ci s’affichait sur l’écran.
· Décennie des années 80 et 90 : Au cours de ces deux décennies, un problème a été identifié, c’est que la grande demande a dépassé l’offre de professionnels de l’industrie. De plus, les professionnels ne pourraient pas couvrir autant de domaines de connaissances sans spécialisation préalable. Les premiers effondrements se sont produits dans des projets et des travaux d’une complexité avancée. Sans aller plus loin, à cette époque Windows ont été lancés en 1985 et Linux en 1992. De plus, l’apparition du HTML est due à l’essor du World Wide Web (WWW), l’un des principaux jalons de l’ère numérique.
· XXI siècle : Depuis le début du 21ème siècle, de grandes avancées ont été réalisées dans tous les domaines couverts par le logiciel. Depuis l’avènement du smartphone révolutionnaire, avec un logiciel intégré qui permet à un seul appareil d’effectuer des tâches qui nécessitaient auparavant un ordinateur. D’autre part, des niveaux de développement ont également été atteints dans des technologies encore à étudier et à développer, telles que l’IA ou les crypto-monnaies déjà bien connues. Des exemples de ces avancées sont les assistants vocaux de grandes entreprises comme Apple, Microsoft ou Amazon, qui peuvent imiter le comportement humain. À ces fins, il existe une multitude de langages de programmation dans lesquels l’objectif du projet détermine quel langage doit être utilisé et donc quel type professionnel spécifique est nécessaire. Certains langages que l’on peut citer sont SWIFT (pour les applications dans les environnements iOS), JavaScript (pour les environnements web) ou PHP (destiné aux tâches et à la programmation de serveurs ou de machines physiques).
Cette évolution des logiciels a permis de simplifier leur développement, d’élargir leur champ d’application et de les rendre plus accessibles pour les utilisateurs. Les logiciels sont devenus plus conviviaux, plus interactifs et plus adaptés aux besoins spécifiques des utilisateurs.
II.3 L’informatique aujourd’hui
L’informatique joue un rôle crucial dans la plupart des entreprises aujourd’hui. Les technologies informatiques sont utilisées pour gérer les opérations commerciales, stocker et analyser des données, communiquer avec les clients et les partenaires, et automatiser les processus. Les entreprises peuvent également utiliser des technologies de l’information pour améliorer leur efficacité, leur productivité et leur agilité en adoptant des outils tels que le cloud computing, l’intelligence artificielle et l’Internet des objets. En résumé, l’informatique est devenue un élément essentiel de la plupart des entreprises modernes, contribuant à leur succès et à leur croissance.
III. III. Intelligence Artificielle
III.1 Définition
L’intelligence artificielle est une branche de l’informatique qui permet aux systèmes informatiques d’apprendre et d’exécuter des tâches normalement associées à l’intelligence humaine (imiter le comportement de l’humain), telles que la reconnaissance de la voix, la reconnaissance des visages ou la traduction automatique.
À la base, l’IA consiste à créer des machines capables d’apprendre de leur environnement et de prendre des décisions en fonction des données qu’elles reçoivent. Les systèmes d’IA sont conçus pour pouvoir apprendre de leurs expériences et s’adapter à de nouvelles situations. Cela signifie que les systèmes d’IA peuvent être utilisés pour résoudre des problèmes complexes qui seraient trop difficiles à résoudre pour les humains.
Les systèmes d’IA sont utilisés dans une variété d’industries, de la santé à la finance. L’IA peut être utilisée pour automatiser des tâches banales, telles que la saisie de données, ou pour fournir des prévisions et des informations plus précises. L’IA peut également être utilisée pour améliorer le service client, en offrant des expériences plus personnalisées.
L’IA est également utilisée pour créer des produits et services plus efficients et efficaces. Par exemple, l’IA peut être utilisée pour optimiser les chaînes d’approvisionnement, améliorer l’efficacité énergétique et réduire les coûts. L’IA peut également être utilisée pour créer des expériences plus personnalisées pour les clients, par exemple en fournissant des recommandations de produits plus précises.
III.2 Domaines d’applications de l’IA
L’intelligence artificielle est utilisée dans de nombreux domaines, notamment :
· Commerce électronique et marketing : recommandation de produits, ciblage publicitaire et analyse de la satisfaction du client.
· Finance : détection de fraude, analyse des risques et automatisation des processus financiers.
· Santé : diagnostic médical, analyse des images médicales et recherche sur les maladies.
· Transport : conduite autonome de véhicules, optimisation de la planification des itinéraires et gestion de la mobilité.
· Manufacturing : surveillance des chaînes d’approvisionnement, planification de la production et optimisation de la qualité des produits.
· Ressources humaines : recrutement, évaluation des employés et prédiction des besoins en personnel.
· Jeux et divertissement : développement de jeux et de technologies de réalité virtuelle et augmentée.
· Domotique et maison intelligente : contrôle de la température, de l’éclairage et de l’énergie.
· Service client : chatbots, reconnaissance vocale et automatisation des processus de support.
· Défense et sécurité : reconnaissance faciale, analyse de la menace et veille cyber-sécurité.
III.3 Les avantages de l’IA pour les entreprises
L’IA peut offrir de nombreux avantages pour les entreprises, notamment :
· Amélioration de l’efficacité et de la productivité : l’IA peut automatiser les tâches répétitives et les effectuer plus rapidement et avec plus de précision que les humains.
· Prise de décision plus rapide et plus précise : en analysant des données volumineuses, l’IA peut aider les entreprises à prendre des décisions plus informées et plus rapides.
· Personalisation et amélioration de l’expérience client : l’IA peut aider les entreprises à mieux comprendre et à anticiper les besoins et les préférences des clients.
· Amélioration de la sécurité : l’IA peut être utilisée pour détecter les activités frauduleuses et les anomalies en temps réel.
· Innovation : l’IA peut aider les entreprises à explorer de nouvelles opportunités de marché et à développer de nouveaux produits et services.
· Réduction des coûts : l’automatisation des tâches par l’IA peut aider les entreprises à réduire les coûts opérationnels.