2 réponses
L'Audition Robotique, "Robotic Earing Engineering" est une technologie basé sur le traitement et la décomposition d'un signal sonore ou frequentiel pour en isoler les differentes ondes caracteristiques. Les microprocesseurs sont des éléments primordiaux d'un "robot auditeur", car ils permettent l'exécution de logiciels informatiques donnant son autonomie au robot. On trouve souvent dans un robot des modèles à très faible consommation, notamment pour des robots de petite taille, qui ne peuvent pas emporter avec eux une source d'énergie importante.
Les capteurs sont les oreilles de ces automates. Il en faut au moins deux pour permettre l'écoute en trois dimensions. Le traitement automatique des signaux sonores pour y détecter les formes, les objets, voir les sons caracteristiques, demande un général un traitement matériel car les microprocesseurs embarqués ne sont pas assez puissants pour le réaliser.
Un chercheur francais du CERN, et professeur dans une école d'ingénieur de Sophia, dont je me rappelle plus le nom, est actuellement un pionnier dans l'étude de l'audition robotique. Il a reussi a extraire les metastases harmoniques d'un bruit blanc, ce qui est novateur dans le domaine.
Ces robots bénéficient souvent de l'ia faible. La notion d’intelligence artificielle faible constitue une approche pragmatique d’ingénieur : chercher à construire des systèmes de plus en plus autonomes (pour réduire le coût de leur supervision), des algorithmes capables de résoudre des problèmes d’une certaine classe, etc. Mais, cette fois, la machine simule l'intelligence, elle semble agir comme si elle était intelligente. On en voit des exemples concrets avec les programmes qui tentent de passer le test de Turing, comme ELIZA. Ces programmes parviennent à imiter de façon grossière le comportement d'humains face à d'autres humains lors d'un dialogue. Ces programmes « semblent » intelligents, mais ne le sont pas. Les tenants de l'IA forte admettent qu'il y a bien dans ce cas une simulation de comportements intelligents, mais qu'il est aisé de le découvrir et qu'on ne peut donc généraliser. En effet, si on ne peut différencier expérimentalement deux comportements intelligents, celui d'une machine et celui d'un humain, comment peut-on prétendre que les deux choses ont des propriétés différentes ? Le terme même de « simulation de l'intelligence » est contesté et devrait, toujours selon eux, être remplacé par « reproduction de l'intelligence ».
Les tenants de l'IA faible arguent que la plupart des techniques actuelles d’intelligence artificielle sont inspirées de leur paradigme. Ce serait par exemple la démarche utilisée par IBM dans son projet nommé Autonomic computing. La controverse persiste néanmoins avec les tenants de l'IA forte qui contestent cette interprétation.
Simple évolution, donc, et non révolution : l’intelligence artificielle s’inscrit à ce compte dans la droite succession de ce qu’ont été la recherche opérationnelle dans les années 1960, le process control dans les années 1970, l’aide à la décision dans les années 1980 et le data mining dans les années 1990. Et, qui plus est, avec une certaine continuité.
Il s'agit surtout d'intelligence humaine reconstituée, et de programmation d'un apprentissage.
Sinon tu peux toujours aller chercher sur google mais surtout en anglais.
Les capteurs sont les oreilles de ces automates. Il en faut au moins deux pour permettre l'écoute en trois dimensions. Le traitement automatique des signaux sonores pour y détecter les formes, les objets, voir les sons caracteristiques, demande un général un traitement matériel car les microprocesseurs embarqués ne sont pas assez puissants pour le réaliser.
Un chercheur francais du CERN, et professeur dans une école d'ingénieur de Sophia, dont je me rappelle plus le nom, est actuellement un pionnier dans l'étude de l'audition robotique. Il a reussi a extraire les metastases harmoniques d'un bruit blanc, ce qui est novateur dans le domaine.
Ces robots bénéficient souvent de l'ia faible. La notion d’intelligence artificielle faible constitue une approche pragmatique d’ingénieur : chercher à construire des systèmes de plus en plus autonomes (pour réduire le coût de leur supervision), des algorithmes capables de résoudre des problèmes d’une certaine classe, etc. Mais, cette fois, la machine simule l'intelligence, elle semble agir comme si elle était intelligente. On en voit des exemples concrets avec les programmes qui tentent de passer le test de Turing, comme ELIZA. Ces programmes parviennent à imiter de façon grossière le comportement d'humains face à d'autres humains lors d'un dialogue. Ces programmes « semblent » intelligents, mais ne le sont pas. Les tenants de l'IA forte admettent qu'il y a bien dans ce cas une simulation de comportements intelligents, mais qu'il est aisé de le découvrir et qu'on ne peut donc généraliser. En effet, si on ne peut différencier expérimentalement deux comportements intelligents, celui d'une machine et celui d'un humain, comment peut-on prétendre que les deux choses ont des propriétés différentes ? Le terme même de « simulation de l'intelligence » est contesté et devrait, toujours selon eux, être remplacé par « reproduction de l'intelligence ».
Les tenants de l'IA faible arguent que la plupart des techniques actuelles d’intelligence artificielle sont inspirées de leur paradigme. Ce serait par exemple la démarche utilisée par IBM dans son projet nommé Autonomic computing. La controverse persiste néanmoins avec les tenants de l'IA forte qui contestent cette interprétation.
Simple évolution, donc, et non révolution : l’intelligence artificielle s’inscrit à ce compte dans la droite succession de ce qu’ont été la recherche opérationnelle dans les années 1960, le process control dans les années 1970, l’aide à la décision dans les années 1980 et le data mining dans les années 1990. Et, qui plus est, avec une certaine continuité.
Il s'agit surtout d'intelligence humaine reconstituée, et de programmation d'un apprentissage.
Sinon tu peux toujours aller chercher sur google mais surtout en anglais.