Nous utilisons des cookies pour améliorer votre expérience. Pour nous conformer à la nouvelle directive sur la vie privée, nous devons demander votre consentement à l’utilisation de ces cookies. En savoir plus.
Nouveaux cryptosystemes bases sur le mixage et la fusion de donnees
Univ Europeenne - EAN : 9786138435266
Édition papier
EAN : 9786138435266
Paru le : 1 déc. 2018
61,90 €
58,67 €
Disponible
Pour connaître votre prix et commander, identifiez-vous
Notre engagement qualité
-
Livraison gratuite
en France sans minimum
de commande -
Manquants maintenus
en commande
automatiquement -
Un interlocuteur
unique pour toutes
vos commandes -
Toutes les licences
numériques du marché
au tarif éditeur -
Assistance téléphonique
personalisée sur le
numérique -
Service client
Du Lundi au vendredi
de 9h à 18h
- EAN13 : 9786138435266
- Réf. éditeur : 5281007
- Editeur : Univ Europeenne
- Date Parution : 1 déc. 2018
- Disponibilite : Disponible
- Barème de remise : NS
- Nombre de pages : 132
- Format : H:229 mm L:152 mm E:8 mm
- Poids : 205gr
- Interdit de retour : Retour interdit
- Résumé : La transmission sécurisée des images numériques dans des canaux non sécurisés a été à l'origine du développement de nombreux algorithmes de cryptages d'images. De nombreux cryptosystèmes présents dans la littérature sont sujet à un certain nombre de problèmes liés à la sécurité. Plusieurs algorithmes de cryptage sont vulnérables, à cause des caractéristiques sécuritaires tels que : espace de clé insuffisant, cartes chaotiques périodiques à certains endroits, présence de clefs équivalentes, etc. Deux nouveaux algorithmes à clé privée sont proposés. Ces algorithmes traitent du cryptage des signaux 2D. Ils sont conçus pour résoudre certains problèmes liés à la vulnérabilité de certaines structures algorithmiques récentes. Ces cryptosystèmes sont bâtis autour de la fusion et du mixage des oscillateurs chaotiques de Colpitts, Duffing et Hartley. De plus, dans le processus de cryptage nous introduisons une fonction mathématique simple mais qui a une grande capacité de brouiller une image. Les algorithmes mis au point ont été testés sur des images standards de la communauté scientifique. Les résultats obtenus sont satisfaisants en comparaison à ceux de la littérature.