7 about... l'anti-pitch, le Digital body language et la vision artificielle
L’anti-pitch
1. Lorsqu’il a voulu vendre son site Babble à Disney, Rufus Griscom a commencé sa présentation par un slide intitulé "Pourquoi vous ne devriez pas acheter Babble". Mettant en avant ses faiblesses et non ses forces, ce “fou” exposait les 5 raisons pour lesquelles il ne fallait surtout pas investir chez lui.
2. Suicidaire cette approche ? Pas du tout ! Griscom a réussi son coup : Disney a dépensé 40 millions de dollars pour acquérir son entreprise. Explications ?
3. Face à une personne qui veut nous vendre quelque chose, nous sommes immédiatement sur la défensive. Par son entrée en matière iconoclaste, Rufus Griscom a décontracté ses interlocuteurs, voire les a fait rire. A partir de là, on peut discuter…
“When I put up a slide that says ‘Here’s why you shouldn’t buy this company,’ the first response was laughter. Then you could see them physically relax. It’s sincere; it doesn’t smell, feel, or look anything like sales. They’re no longer being sold.” R. Griscom
4. Contrairement à ce qu’on croit, l'auto-critique fait paraître plus “pro” car elle révèle une intelligence certaine (recul, analyse, humilité…) et crédibilise celui qui expose honnêtement ses problèmes.
5. En présentant de prime abord, sans ruse, les failles de votre dossier, vous établissez la confiance. Pas de soupçons d’entourloupes.
Ainsi conditionnés, les responsables de Disney sont arrivés d’eux-mêmes à la conclusion que, finalement, les problèmes de Babble n'étaient pas insurmontables.
6. C’est vrai, l'anti-pitch va à l’encontre de nos habitudes. Pourtant, montrer uniquement ses atouts ne fonctionne pas avec des investisseurs ou des décideurs, sceptiques professionnels. Plus vous chercherez à "vendre", plus leurs réactions seront négatives.
7. Enfin, envisager le pire nous permet d’imaginer comment l’éviter et donc de prendre le contrôle de la situation. Avec un anti-pitch, on donne toutes les clés pour prendre une décision… surtout quand elle coûte 40 millions de dollars !
La leçon à tirer
Lorsque l'on veut persuader, être sincère, transparent et pourquoi pas original, ça peut payer…
Pour aller plus loin
La vidéo (hilarante et non sous-titrée) : Try the opposite, de Jerry Seinfeld.
Le livre à lire : Originals d'Agam Grant
Le Digital body language
Même après la pandémie, une grande partie de notre vie continuera à se passer online. Il est plus que jamais temps de se pencher sur le digital body language...
1. Le digital body language est l’ensemble des signaux - explicites, implicites, inconscients - envoyés lorsque nous communiquons par des moyens numériques : Zoom, mails, messages, Slack, etc.
2. Commençons par ce qui se rapproche le plus de la vie offline : les réunions à distance. Quelques conseils de bon sens :
Regarder “dans les yeux” notre caméra, placée à la hauteur du regard, et maîtriser le message “involontaire” transmis par notre choix d’arrière-plan.
Ne pas “communiquer” avec notre propre image ! Sur Zoom, un clic droit sur votre image - fonction “cacher son image” - et les autres vous voient mais pas vous : ça repose...
3. Hors visio (emails, Slack…), il vaudrait mieux parler de communication par le comportement puisque le digital body language n’a de body que le nom, le corps n’entrant pas en jeu. Erica Dhawan, auteur du bestseller Digital Body Language: How to Build Trust and Connection, No Matter the Distance, nous rappelle ces quelques principes de base.
4. Un message (trop) bref peut induire une ambiguïté négative. En apportant un peu plus de précisions, on évite de se perdre en conjectures inutiles, parfois toxiques.
5. En communication écrite, seuls les mots apportent des informations. Votre état d’esprit passe, non par un sourire ou un froncement de sourcils, mais par les mots (et les emojis) que vous aurez choisi d’écrire… ou non. Rien d’autre !
6. La bonne préparation de vos interactions ou la rapidité de votre réponse font aussi partie du message. La réflexion, ça a du bon parfois...
7. Si, à la lecture d’un message, vous avez des doutes quant à l’intention de votre interlocuteur, privilégiez la version positive et, si ça vous taraude, prenez votre téléphone. Une conversation en direct permet souvent de dissiper de malheureux malentendus…
La leçon à tirer
Offline et online : même combat ! Nous sommes des petits êtres sensibles qui avons besoin d’être rassurés et appréciés. Le vite, le bref, le (trop) direct peuvent nous heurter. Pendant des siècles, nous avons poli des règles pour rendre moins violentes les relations dans la société. Ce n’est pas pour rien…
Pour aller plus loin
Digital body language: How to communicate effectively on Zoom
Virtual Speaker Series: 5 Key Principles of Digital Body Language | Erica Dhawan
La computer vision dans notre quotidien
Vous utilisez des filtres sur Instagram ? Sans le savoir, vous utilisez la computer vision ou vision artificielle, cette réalité qui s'est imposée dans nos vies, sans même que nous nous en rendions compte. A tort.
1. La computer vision, c’est l'intelligence artificielle appliquée au visuel. Les ordinateurs sont “formés” à reconnaître, analyser et interpréter les données présentes dans une image ou une vidéo.
2. La computer vision fait aujourd’hui partie de notre réalité quotidienne :
Filtres Snapchat ou Instagram
Reconnaissance faciale dans les lieux publics
Détection des cancers de la peau ou diagnostic à partir de radios
Identification de pièces défectueuses en usine
Véhicules et drones autonomes
3. Les progrès fulgurants de la vision artificielle doivent beaucoup à Imagenet, le “wikipedia” des images. Projet lancé par des universitaires, Imagenet a misé sur la contribution individuelle : 50 000 personnes ont classé 15 millions d'images (dont 62 000 photos de chats !) et en ont assuré la correspondance avec les 200 000 termes anglais recensés par Wordnet, la plus grande base lexicale mondiale.
4. A partir d’Imagenet, les algorithmes de Deep Learning de reconnaissance visuelle (réseau neuronal convolutif / CNN) se sont développés pour atteindre, dès 2017, des taux d'erreur inférieurs à 5 %, soit le seuil d'erreur de l’œil humain.
5. Yann Le Cun, "chief scientist" français de Facebook, vient de revendiquer une avancée spectaculaire. Son modèle SEER a été capable d'analyser par lui-même plus d'un milliard d'images d'Instagram, sans l'aide d'annotations ni d’interventions humaines. Le taux d'exactitude obtenu - 82,4 % - est la meilleure performance jamais atteinte par un langage d'AI entièrement auto-apprenant.
6. Selon Report Linker, le marché mondial de la vision artificielle va croître de 47 % par an (de 4,6 milliards de dollars en 2019 à plus de 95 milliards de dollars en 2027).
7. Bien sûr, ces technologies posent de nombreuses questions éthiques quant au respect de la vie privée, comme vient le rappeler le licenciement de Timnit Gebru, ex-“AI Ethist” chez Google. Par ailleurs, la reconnaissance des personnes peut varier selon le niveau de représentation dans les bases, ce qui peut induire des biais de traitement selon la couleur de peau ou le genre.
La leçon à retenir
Les applications de la vision artificielle vont avoir des impacts forts, souvent méconnus, dans nos vies. Ca mérite bien quelques “7 about” supplémentaires, non ? A suivre…
Pour aller plus loin
Les principaux outils de Computer Vision : le classement d'images (Playment, Hasty) et les langages de programmation (Matlab, OpenCV-Python)
Faire ses premiers pas : le tutoriel pour distinguer les chats des chiens
La Computer Vision en 3 minutes (vidéo)
La base de données Imagenet (téléchargeable)
La vidéo de Fei-Fei Li, l'initiatrice de d’Imagenet : Comment apprendre aux machines à comprendre les images ?