La nouvelle de l’intégration de RankBrain, l’intelligence artificielle de Google, est sortie il y a un peu plus d’un mois. Depuis, peu de précisions ont été apportées. Toutefois, les spéculations vont bon train.
Du côté d’Affluences, on se questionne plus particulièrement concernant les possibilités et les nouveautés que pourrait amener RankBrain au niveau de la compréhension et de l’indexation des images.
L’indexation des images correspond au classement des images par degré de pertinence de leur contenu. Actuellement, Google Images suggère des résultats en fonction du contenu de la page dans laquelle se trouve l’image. Il n’analyse pas le contenu de l’image en tant que tel et se fie plutôt aux mots-clés suggérés dans la balise alt, le titre de la page, etc.
Malgré de nombreuses acquisitions et de multiples enregistrements de brevets depuis 2006, l’une des plus grandes difficultés rencontrées par Google depuis sa création reste la compréhension du contenu d’une image.
Google a en effet émis plusieurs brevets pour la reconnaissance optique de caractères (OCR), des signes, des produits et de codes bar.
Et pourtant, en dix ans, il n’est toujours pas possible d’associer le texte d’une image à une requête dans Google. Googlebot ne lit pas le texte dans les images. Cette situation freine le référencement à plusieurs niveaux.
Certains outils de Google utilisent pourtant l’OCR (reconnaissance optique de caractères) et analysent les photos pour fournir des résultats.
En 2010, l’application Goggles est lancée et en fait grandement usage. Elle permet de scanner l’environnement à l’aide de l’appareil photo d’un cellulaire intelligent. Goggles analyse ainsi formes, couleur et texte pour effectuer une recherche en ligne.
Depuis 2011, la recherche par image inversée est aussi possible sur Google Images et renvoie des résultats similaires.
Dans Google Drive, l’OCR permet de convertir images et PDF en texte. Toutefois, de nombreuses contraintes existent. Le texte doit être d’une excellente résolution et d’une grandeur minimum. Bien évidemment, la police doit être la plus simple possible (Arial ou Times New Roman). Il doit être orienté vers le haut; les caractères n’étant pas reconnus s’ils sont penchés.
La même technologie existe pour la traduction d’images dans l’outil en ligne Google Translate.
Théoriquement, Google est en mesure d’associer des images en comparant formes et couleurs. Pour fonctionner, un résultat de correspondance entre les images est attribué lors de l’analyse. L’article de SEO by the SEA en fournit une excellente explication.
Grâce à l’OCR, Google est aussi en mesure de détecter du texte et le fait déjà.
Alors pourquoi n’utilisent-ils pas les images dans l’indexation ? Se pourrait-il que ce qui manquait à Google jusqu’à maintenant est la possibilité d’associer une signification à certaines formes ?
Si tel est le cas, RankBrain pourrait être la solution. Celui-ci analyse des requêtes passées pour associer un sens aux nouvelles requêtes. Sa fonction principale est d’apprendre à apprendre en fonction d’anciennes requêtes et du comportement des utilisateurs.
De la même façon, il pourrait associer les requêtes effectuées dans Google Images et les résultats qui obtiennent un bon taux de clics. Ces images pourraient ensuite être analysées pour déduire et associer des formes récurrentes à certaines requêtes. Google pourrait ainsi « comprendre » le sens des images par association et apprentissage des anciennes requêtes.
‘‘Google ne vous aime que lorsque tout le monde vous aime’’ Wendy Piersall Vous êtes-vous…
‘‘Je plie et ne romps pas’’ Le Chêne et le Roseau. Jean de la Fontaine…
‘’ Les liens sont vraiment importants pour nous, afin de trouver du contenu.’’ John Mueller,…
“Toutes les images que nous avons de la nature, c'est aux peintres que nous les…
Le contenu dupliqué plombe le classement d'un site Web. Plusieurs éléments sur votre site Web…
Avez-vous déjà reçu une lettre retournée par l’expéditeur ? C’est agaçant. Surtout si la réponse…
This website uses cookies.