On vient de me faire remarquer — assez justement — que certaines parties du code source des pages de mon site (de BlogoText y compris) ne respectent pas les règles d’accessibilité.
La raison à ces remarque concerne la nécessité d’utiliser un navigateur graphique avec le CSS, le JavaScript et les Cookies activés pour pouvoir utiliser mon site à 100% de ses capacités.

Je passerai sur le fait que ces conditions sont remplies — ou peuvent l’être — sur environ 99,99% des postes informatiques et je vais uniquement me justifier sur mon droit et mon besoin en tant que webmaster/créateur du site d’utiliser ces technologies.

Déjà : si vous lisez mon site dans une console avec le navigateur Links, une partie sera inaccessible et le captcha ne marchera pas. Si vous désactivez le JavaScript, pareil : les boutons de formatage seront désactivés et (jusqu’à encore récemment) vous ne pouviez pas poster un commentaire sans activer les cookies pour l’ensemble de mon site.

Je suis désolé… Ou pas.

Les CSS, les Cookies ou le JavaScript sont des composants des langages utilisés dans l’affichage d’une page web : ce sont des standards très largement répandus et très largement supportés par la très vaste majorité des navigateurs (et parmi eux, la totalité des navigateurs graphiques).

Pourquoi je m’en priverai alors ?

Une page web devrait pouvoir s’afficher uniquement avec du HTML, et devrait être lisible et navigable : je suis d’accord.
Mais quand je veux offrir des fonctions comme les commentaires, le formatage de ces derniers et la protection de mon site contre le spam, le simple HTML ne suffit plus. C’est triste, mais c’est comme ça.

Concernant les commentaires, les cookies ne sont déjà plus nécessaires (j’ai trouvé une parade et ça marche), mais pour le formatage avec des boutons, le JavaScript est obligatoire (à moins de faire ça en Flash/Silverlight :O) et pour la captcha je préfère utiliser diverses astuces CSS/JavaScript qui fonctionneront sur 98% des ordinateurs qu’utiliser une image illisible avec un code à recopier (qui poussera 10% de mes lecteurs à la dépression nerveuse). À un moment il faut bien faire des compromis.

Je suis parfaitement conscient que certains sites abusent des cookies, des scripts, des plugins, des images pour vous espionner ou exécuter des fonctions malveillantes sur votre ordinateur, mais ce n’est pas le cas de tout le monde.
Et si on bloque les script ou les styles (ou même les images) dans les pages web, il faut bien assumer qu’on se prive d’une partie des possibilités offertes par ces pages web. Idem pour les publicités : les bloquer sur les sites qu’on aime, c’est assumer qu’on les réduit à leur perte (et les débloquer, c’est assumer que ce sont les sites qui nous poussent à notre perte, par la vente de renseignements sur nous).

Donc oui : je continuerais d’utiliser des astuces CSS, des scripts JavaScript, des cookies afin que mon site soit fonctionnel pour le plus grand nombre, tout en résistant au mieux aux attaques des spammeurs. Je peux aussi m’en passer, mais dans ce cas je devrai fermer les commentaires, ce n’est pas ce que je veux.

Tant pis pour ceux qui bloquent tout ça, désolé pour ceux qui utilisent un navigateur en mode texte.

67 commentaires

gravatar
Walane a dit :

Gros gros +1.
Bien d'accord surtout :

Et si on bloque les script ou les styles (ou même les images) dans les pages web, il faut bien assumer qu’on se prive d’une partie des possibilités offertes par ces pages web. Idem pour les publicités : les bloquer sur les sites qu’on aime, c’est assumer qu’on les réduit à leur perte (et les débloquer, c’est assumer que ce sont les sites qui nous poussent à notre perte, par la vente de renseignements sur nous).

À un moment donné il faut assumer, et je rejoins ce que tu as dit sur la pub, je n'ai rien à ajouter.
Des technos sont là, elles sont faites pour êtres utilisés. Elles peuvent être certaines fois intrusives mais c'est le jeu ma pauvre lucette.

Nous on fait attention, mais le reste des gens s'en tapent les couilles dans un presse-agrumes.

gravatar
bob a dit :

Et quand on est aveugle avec un écran braille, on fait comment ?

gravatar
Anna a dit :

On ne voit pas grand chose bob, mais il faut malheureusement être réaliste, il y a des contraintes économiques...

gravatar
tester a dit :

@bob : On change de matos pour quelque chose de plus commode...

gravatar
dacrovinunghi a dit :

Gros pas d'accord,
Javascript c'est une cochonnerie à la plus value douteuse.
"la protection de mon site contre le spam"
Ha bon ? tu parles de ca ?

"Nerd Fine THANK YOU"

label for="captcha">Combien font <b>cinq</b> <b>+ six</b> <b style="opacity: 0; position: absolute; z-index: -1000;">+ deux</b>?</label>

Hum cinq+six, je sais pas comment automatiser ca ...
(phantomjs)

gravatar
taqiuk a dit :

Il faut arrêter la paranoïa. Non que dis-je, ce n'est pas de la paranoïa pardon, c'est de la méconnaissance. On arrive à une époque où une majeure partie d'entre nous sont méfiants par rapport à certains sites qui utilisent des scripts suspects ou de la pub fournie par une régie publicitaire à la réputation douteuse. Conséquence, il y a une généralisation de ce comportement et des blogs honnêtes en payent les frais. Oui, il faut s'en méfier mais la méfiance excessive est aussi néfaste que le fait d'accepter tout script et pub. Je ne suis pas expert en sécurité mais il ne faut pas en être un pour se rendre compte que CE blog constitue un environnement sain. Aucune script de site tiers ici ni aucune pub contrairement à certains blogs qui utilisent google, cloudflare ou disqus.

@Timo
Pour les commentaires, les cookies te servent à retenir le pseudo du posteur ainsi que l'email et le site si indiqués si j'ai bien compris. Or, au moment où j'écris ces lignes, je n'en ai pas, juste une SESSION. Donc, je suppose que si je quitte FF, mon pseudo est oublié ?

gravatar
Walane a dit :

@dacrovinunghi : On parle ici de bloquer les spammeurs automatiques universels à tous les sites.
Évidemment, volontairement, le système est très facilement contournable, mais pas pour un bot qui parcours plein de sites Web différents.

gravatar
Gilles a dit :

@bob : Crève, comme le dit si bien Anna :)

Le javascript, c'est de la merde.
Tellement que Moz est en train d'essayer de 1) le désactiver par défaut dans FF, 2) refaire son implémentation.
JS ou Flash : même combat.
Pour les cookies, la loi EU t'oblige à informer (les gros sites le font) mais de toute façon, le navigateur qui n'a pas les cookies d'activer peut surfer à 100% et même commenter non ?
Quant au CSS, Links ne s'en préoccupent pas, je ne vois pas le souci d'avoir un site HTML(5 ?) + CSS.
Sans JS ou Flash c'est mieux (plus accessible) mais c'est ton choix que tu assumes.
Mais ne dit pas que JS est indispensable, beaucoup de sites marchent (mode dégradé) sans JS, c'est juste que, par fainéantise, tu ne veux pas le faire :p...
C'est pareil que la compatibilité IE avant IE8.
Quand le visiteur peut changer son logiciel ça va sinon il pleure mais c'est toi qui choisit ou non de faire de la compatibilité.
Remarque, un site pas compatible IE6/7 n'est plus aussi gênant qu'avant :)

gravatar
galex-713 a dit :

Tout à fait d’accord sur plusieurs points : les boutons en javascript. En effet il est impossible d’en faire autrement, et on ne peut rien reprocher à ça hein (je l’ai pas fait), puisque c’est au niveau Contrôlleur, au C du MVC, et que donc ça *doit* être programmé. Si on désactive javascript, il est tout à fait normal et légitime de se voir privé d’une telle fonctionnalité.
Pour les cookies bravo ! =D Bon, j’avais rien dit dessus, et la plupart des navigateurs même en mode texte les supportent, et pour le peu en utilisant, il s’agit d’une bonne utilisation, encore une fois légitime car à l’utilisation des cookies incontournables.

Les commentaires ne nécessitent ni cookies, ni JS ni CSS hein :p Avec links, lynx ou w3m on peut commenter sans problèmes ;)

Ton site est parfaitement lisible avec les navigateurs en mode texte, le captcha fonctionne très bien, mais il faut juste savoir qu’il faut ignorer le troisième membre (un aveugle ne le saura pas).

Et si les handicapées ne constituent qu’une petite portion de tes lecteurs, ils n’en sont pas moins importants ! Comme le disait Tim Berner Lee, le Web est fait pour tout le monde ! Quel que soient les handicaps ! C’est la beauté de l’informatique ouverte, de l’informatique sémantique, et c’est un plaisir d’en être.
Btw je connais des gens aveugles, et j’en connais pas mal qui bossent dans l’accessibilité qui t’expliquerait tout ça mieux que moi… Au dernier GNU Hackers Meeting, youpi (alias Samuel Thibault, le développeur du Hurd et grand travailleur dans l’accessibilité) a présenté avec Texou (alias Jean-Philippe de Mengual, qui bosse dans l’accessibilité aussi et la traduction (LFS, traduc.org…)) une conférence sur « la liberté #0 pour tous », et sur la nécessité d’intégrer l’accessibilité aux GNU Coding Standards, au même titre que l’internationalisation, pour décider touts les faiseurs de logiciels graphiques à rendre leurs logiciels accessibles (notamment pour GNOME, ou depuis GNOME3 c’est devenu un grand bordel).

Néanmoins pour les captcha, je continue à dire que le javascript et le CSS rend le site inaccessible quand on pourrait faire ça en accessible. Tout d’abord je salue ton très bon traitement du captcha qui consiste à éviter les services externes et à éviter les images, impossibles à lire pour les aveugles. Tu fais appel au décryptage du language et à la compréhension humaine, avec du texte ! Et ça c’est on ne peut plus accessible ! Et c’est super ! Mais le CSS et le JS gâchent tout… Ce que tu devrais faire ce serait une collection de questions, qui ne fasse pas partie du code source (qui ne soient pas donc ouvert, un peu comme des clés), auquels seul un humain comprenant le langage humain puisse répondre, du style « Quel est la couleur du cheval blanc de Napoléon ? », « Est-ce que je peux faire “0÷0” ? », « Est-ce que la terre est plate ? », « Tu connais la blague de toto aux toilettes ? », et autres évidences (validées avec des regexps pour être sûr de ne pas invalider un humain). Ça c’est parfait !
Et ne me dis pas que pour chaque question un spammeur pourrait compiler une réponse, car ce serait s’attaquer directement à Blogotext, et c’est très simple de le faire déjà actuellement : tu ignores le troisième membre, transforme les nombres en nombres en chiffres, fais l’addition et ça marche.
Je te ferais remarquer que le captcha de NewsHTML de l’Étudiant libre fonctionne remarquablement bien, et pourtant il ne s’agit que de recopier un mot !

Néanmoins quelque chose me fait regagner de l’intérêt pour les captcha graphiques : le fait que ça puisse aider à numériser des livres, comme le fait reCAPCTHA est excellent justement pour l’accessibilité ! Pour rendre plus de littérature accessible, pour la diffuser à ceux qui n’en ont pas partout sur Terre ! De plus ainsi tu peux avoir des tas de captcha à volonté !
Le problème évidemment vient du fait que cette numérisation profite à Google…
Mais justement, j’étais au local de la Quadrature du Net ce 26, et pendant que calimaq regardait Sonntag scanner des livres avec son DIY bookscanner automatisé, qu’aKa l’interviewait et qu’on discutait avec du bon thé et des petits gateaux, on a eu l’idée de faire, pour les mots que Tesseract (OCR libre) n’arrivait pas à numériser, faire un reCAPTCHA libre et décentralisé qu’on lierait aux projets d’Internet Archive (archive.org), GUTenberd et Wikisource pour numériser massivement et collaborativement des livres libres ou du domaine public, publiés ensuite sur les sites de ces projets.
Participer à un tel projet serait plus qu’intéressant ;)

gravatar
galex-713 a dit :

@bob : Les écrans brailles c’est cher, tu veux sans doutes parler des simples modèles de lecteurs brailles abbordables à une ligne de 40 caractères non ?

gravatar
Gilles a dit :

Pour info, un captcha avec "Quelle est la couleur du cheval blanc d'Henry IV ?" est 100% inutile car les robots spammeurs connaissent les réponses depuis un bail, merci Google.
En fait, certains robots spammeurs interrogent Google sur les questions de ce type.
Vaut mieux des questions personnalisées en rapport avec un truc genre "Dans quel pays vit Timo ?" ou "Quel est son dessin animé préféré ?", etc.

gravatar
Le Hollandais Volant a dit :

@taqiuk : Oui, les cookies permettent de retenir le pseudo/email/site.
Mais normalement si tu choisis de ne pas retenir le pseudo/email/site, les cookies ne sont pas créés.

En effet, il y a un cookie « session », mais il n’est pas créé si les cookies sont désactivés. Avant, on ne pouvait pas commenter sans avoir activé les cookies, maintenant si.

@Gilles : je précise dans ma page [À Propos/tout/apropos.php] que mon site utilise des cookies. Dans tous les cas, le bouton disant que les cookies peuvent être utilisés est désactivé par défaut.
De plus, je crois que la loi EU dit que les cookies "techniques" (comme le PHP_SESSID) ne fait par parti de tout ça. Je pense que mon site est en règle, donc.

Mais ne dit pas que JS est indispensable, beaucoup de sites marchent (mode dégradé) sans JS, c'est juste que, par fainéantise, tu ne veux pas le faire :p...

Bah oui, en mode dégradé mon site fonctionne : pas de commentaires, pas de formatage…

@galex-713 :

Je te ferais remarquer que le captcha de NewsHTML de l’Étudiant libre fonctionne remarquablement bien, et pourtant il ne s’agit que de recopier un mot !

Oui, je me demande d’ailleurs comment ça se fait… Ça doit venir du caractère inédit de cet anti-spam.

Concernant les captcha avec des images : non non non. Il me donnent moi même mal à la tête !

gravatar
tester a dit :
Ton site est parfaitement lisible avec les navigateurs en mode texte, le captcha fonctionne très bien, mais il faut juste savoir qu’il faut ignorer le troisième membre (un aveugle ne le saura pas).

Pas compris "l'astuce" du 3e membre...

Et si les handicapées ne constituent qu’une petite portion de tes lecteurs

1,7 millions de bigleux en france quand même !

...Ça c’est parfait !

Ou une appli en flash (par exemple) qui ferait de la reconnaissance vocale ?
http://www.hebiflux.com/blog/2009/12/16/reconnaissance-vocale-sous-flash/

ps : encore une fois tu te trompes de combat : la technologie n'est pas l'handicap dans l'histoire, elle peut au contraire être la solution ;)

gravatar
Le Hollandais Volant a dit :

@Gilles : Ça réduirait trop le nombre de personnes qui peuvent commenter (ça ferait néanmoins en sorte que seuls ceux qui connaissent bien le blog puisse commenter :O).

gravatar
TD a dit :

@Gilles : ça pose un autre inconvénient : il faut connaître l'auteur en l'ayant suivi depuis quelques temps ou en faisant des recherches. Pour faire un commentaire rapide sur un blog qu'on visite trop rarement ou si on commente juste en passant c'est pas pratique. Pour Timo, c'est pas évident à première vue de savoir qu'il vit aux Pays-Bas car il écris en français sur ce qui se passe en France ; son lieu de vie ne transparaît que sur certains de ses liens. Ça fait aussi longtemps qu'il n'a pas parlé de Pokémon ni de Détective Conan.

gravatar
qwerty a dit :

Moi le truc qui m'embête c'est que firefox n'implante pas comme Opéra la représentation de l'input type datetime-local. Si vous avez un JS qui ferait pareil, chuis preneur (voir pour les autres input type du HTML5)

gravatar
Gilles a dit :

Ou alors une question "quelle est la couleur de fond de ce site ?" ;)
Mais c'était pour préciser ma pensée :D
Tout le monde sait que tu est lolicon/hantai addict :D

gravatar
TD a dit :

@Gilles : alors ça pose problème aux daltoniens.

gravatar
taqiuk a dit :

@TD :
Et si on proposait : "Quel est l'avant dernier mot de l'article de ce blog ?" C'est viable comme système anti-spam ?

gravatar
tester a dit :
1,7 millions de bigleux en france quand même !

+ 2,5 millions d'illetrés rien qu'en france, mine de rien ça fait un marché de près de 4 millions de personnes à toucher via notamment la reconnaissance vocale...

gravatar
tester a dit :
de personnes

edit : d'exclus.

gravatar
H2G2 a dit :

Je passait par là. Et j'ai vu :

la protection de mon site contre le spam

Comment dire. Moi, je suis un gentil, je reste humble et je provoque des trolls for the lulz. Mais, il y a des méchants qui ne vont pas être vraiment d'accord sur ta paresse ou tes avis. Et il vont te faire passer un mauvais quart d'heure pour ton site. Comme la gentillesse est mienne, je vais te donner pour anéantir toute ta crédibilités sur la sécurité informatique le script qui permets de rendre ton captcha aussi inutile que les testicules d'un pape:


#!/usr/bin/perl

use WWW::Mechanize;

my %nombre=(
'un'=>1, 'deux'=>2, 'trois'=>3, 'quatre'=>4, 'cinq'=>5, 'six'=>6, 'sept'=>7, 'huit'=>8, 'neuf'=>9, 'dix'=>10);
%op=( '+'=> sub { ($a,$b)=@_; return $a + $b }, '-'=> sub { ($a ,$b)=@_; return $a-$b; });

$metch = WWW::Mechanize->new();

$metch->get("http://lehollandaisvolant.net/index.php?d=2013/10/23/13/35/04-nsa-france-meme-combat-contre-les-citoyens");

$c = $metch->content();

if ($c =~ /<label for=\\"captcha\\">Combien font <b>(\\w+)<.b> +<b>(.) (\\w+)/g )
{
print "Je trolle le captcha du hollandais volant: $1 $2 $3 = ".$op{$2}->($nombre{$1},$nombre{$3}). " .\\n";
}

Oui, on peut dire :

On parle ici de bloquer les spammeurs automatiques universels à tous les sites.

Et de un commit pour les bot spammeurs !

N'empêche que ça peut faire une API vachement intéressante pour ce site d'envoyer des commentaires en ligne de commande.

gravatar
dacrovinunghi a dit :

@H2G2
Nope c'est un poil plus compliqué mais pas tellement plus

gravatar
H2G2 a dit :

Plus compliquer ?

gravatar
plob a dit :

@dacrovinunghi :
Ca fait belle lurette que les robots passent les "captchas" de style A + B.
J'en ai fait un y'a 10 ans... Et en plus, c'est universel comme antispam.

Non, le mieux, c'est la reconnaissance d'image, de demander si sur telle photo, il y a un animal, où il se trouve, de quel couleur il est... Bref, le truc encore incompréhensible pour les ordinateurs parce que pas facilement automatisable (contrairement au A + B qui est d'une facilité déconcertante).

gravatar
jerrywham a dit :

Là vraiment je ne suis vraiment (deux fois vraiment, non, trois !!!) pas d'accord avec toi. Ce n'est pas toi qui prônait dans un de tes articles de laisser le choix à l'utilisateur (http://lehollandaisvolant.net/index.php?d=2013/06/03/00/05/34-arretez-de-dire-aux-internautes-ce-quils-doivent-faire) ?

Je suis par contre à 200% d'accord avec bob : il y a plus de non-voyants sur le net que tu crois. Et réaliser un site qui se dégrade harmonieusement est réalisable sans utiliser des couches de javascript. Des filtres anticapcha suffisamment efficaces il y en a (va voir du côté de lionwiki, en le modifiant un peu, tu pourrais t'en inspirer). Mais si quelqu'un a une dent contre toi, il trouveras malgré tout la parade pour te spammer (voir exemple de H2G2). Donc c'est un faux problème.

gravatar
en passant par ici a dit :

Je n'ai pas très bien compris le fait de mettre en opposition l'accessibilité et les fonctionnalités de type javascript ou cookie.
L'un peut fonctionner avec l'autre, non ? (A moins que la mise en forme de ton site se fasse par js)
A mon avis si tu appliques quelques règles simples d'accessibilité tu sortiras du lot et les lecteurs vocaux te dirons merci. Exemple de règle : utilisation et hiérarchisation des balises h, les alt et les title sur les images (d'ailleurs ne pas confondre les 2), navigation naturelle sur les champs focussables, les ancres (#) pour les renvois, les labels for, éviter les iframe etc...
Le mieux pour comprendre ce que va lire un lecteur vocal est de simplement désactiver le style dans le browser. Ce que tu vois a l’écran est quasiment ce qu'il lit (d'ailleurs les display:none et autre hidden c'est la guerre car évalué différemment selon les lecteurs).

gravatar
dacrovinunghi a dit :

@plob
J'ai dit le contraire ?

gravatar
taqiuk a dit :

@jerrywham :
Ca n'a pas de rapport avec le fait de laisser le choix à l'utilisateur. Quand tu utilises un programme, le programmeur ne te demande pas en quel langage tu préfères l'utiliser. Faut pas déconner, quel est le problème de l'utilisation de JS sur ce blog ? Sérieusement qu'on m'explique car je n'y vois rien de néfaste ici.

gravatar
galex-713 a dit :

@Gilles : Trop élitiste. Pour la couleur du cheval blanc : c’était un exemple, il suffit de trouver d’autres machins du genre : « Écrivez la première lettre de ce captcha »… Bon, c’est toujours élitiste, mais je préfère cet élitisme là ! xDDDDD (je déconne hein).

@Le Hollandais Volant : Eh ben ! Utilises le même ! Tu vois qu’un antispam peut fonctionner sans JS ni CSS ! On prend juste un antispam tellement con que personne aura pensé à l’implémenter !
Pour les images : non mais juste optionnel hein, avec le choix de le faire en texte, et puis ça aiderait à numériser des livres libres ou du domaine public… Et puis comme ce serait des mots scannés, ce serait pas très dûr, contrairement aux machins colorés rayés déformés écrasés coupés :p

@tester : L’astuce du 3e membre : en fait il y a trois membres au captcha de Timo, c’est « Combien font chiffre + chiffre + chiffre », mais le dernier « + chiffres » est caché avec une astuce insolite en CSS. Comme le nombre de membres est toujours le même, et que c’est toujours le troisième et dernier qui est caché (et donc à ignorer pour le lecteur avec CSS), il suffit de l’ignorer, et ça passe.

Et puis oui je sais que la cécité n’est pas une maladie anodine ;) C’est quelque chose de répandu, et heureusement l’informatique, le numérique, et tout particulièrement l’informatique sémantique permet d’y remédier (pour répondre à ton PS : car non je ne me trompe pas, je suis bel et bien au courant que la technologie permet de faire plus aux handicapés et les rends plus « normaux » socialement par rapport aux autres).

Déjà que le CSS et le JS ne sont pas supportés en console ou interface audio et que c’est pour ça que je pinaille… mais alors Flash… Vouvoufoutriépahunpeudeumagueuleparasar ?

@qwerty : Nan, tombe pas dans le piège de faire en JS ce qui devrait rester en HTML : t’inquiète Firefox va le faire, ils seront bien obligés avec leur OS là, Firefox OS, qui va tout implémenter pour pouvoir faire un OS complet en web.
Sois patient… essaye pas de prendre le web de vitesse, où c’est lui qui t’abandonnera en cours de route : le sémantique est ce qu’il y a de plus pérenne.

@taqiuk : C’est un excellent exemple tout à fait viable de captcha ;)


@tester : Oui, mais quand t’es aveugle, on peut pas te soigner. Parce que quand t’es aveugle ton cerveau se débarrasse très vite des neurones récepteurs qui sont requis pour voir, et qu’au final même si on répare tes yeux avec un laser, ou un truc futuriste style cellules souches en mode pluripotentes induites, ton cerveau suivra pas.
Par contre l’illettrisme il ne faut pas le combattre en mettant moins de texte, mais en enseignant à lire et écrire. Car ici on peut toujours enseigner à n’importe qui, de n’importe quel âge à écrire. Alors certes c’est plus difficile quand on est plus âgés, mais c’est toujours possible, et il est beaucoup plus facile, et à terme plus utile, d’enseigner à lire et à écrire, que de mettre moins de texte.
Comme l’esprit humain est indéniablement capable d’apprendre à lire et écrire, et qu’il se débrouille très bien, et qu’à l’instar d’Internet, il s’agit d’une des plus grandes inventions de l’Humanité, on peut dire que le texte est ce qu’il y a de plus accessible et pérenne que l’Humanité ait jamais pu faire (bon ok c’est vrai que ça marche mieux quand la langue est transparente).

@jerrywham : Complètement d’accord. D’ailleurs l’Internet a toujours été fait pour mettre l’intelligence en périphérie du réseau, et c’est ce qui fait sa force et sa flexibilité. Avec la tendance minitel 2.0 à la mettre sur le serveur, et à finalement tomber sur un réseau qui a les mêmes propriétés qu’un réseau intelligent avec des terminaux cons (comme le téléphone ou le minitel justement), on comprend qu’il est donc également important que l’intelligence, la liberté, le choix, soit sur le terminal, le client, et non le serveur.

@en passant par ici : Tout à fait :)

@taqiuk : Non le problème vient du fait d’utiliser n’importe comment les technologies du web au détriment de l’utilisateur. Une utilisation pérenne, sémantique, respectueuse et flexible du Web serait de respecter sa structure MVC, avec pour Modèle, pour structure, le (X)HTML(5) sémantique, pour Vue, pour rendu, le CSS(3)(/XSLT) responsive, et pour Contrôleur, pour interaction, le javascript libre. Mais utiliser du javascript pour modifier de façon essentielle la structure ou le CSS pour changer le sens à faire entendre, c’est se servir de technologies des couches V et C pour la couche M, et ça casse tout.


@JeromeJ : Hors de propos je trouve, non ? Je veux dire, il évoque les pubs, mais c’est tellement trivial ! Tellement évident !

En tout cas je suis content que ce billet ait provoqué une si grande réflexion :)

gravatar
Le Hollandais Volant a dit :

@jerrywham : l’autre article ne parle pas de la même chose.
L’autre article râle contre les sites qui nous demandent de partager des liens sur les réseaux sociaux, avec une gros popup merdique qui ne part pas tant qu’on clique pas dessus.

Ici, je veux bien laisser le choix à l’utilisateur de désactiver les scripts ou les styles, mais dans ce cas je le prévis que mon site risque de pas fonctionner chez eux correctement.
Au niveau des fonctionnalités, il y a des besoins techniques, point. Si quelqu’un choisit de se priver d’une des technologies du web, alors il fait comme il veut, mais qu’on ne vienne pas dire après que ça ne marche pas.

Bloquer le JS dans un navigateur, c’est comme retirer le moteur d’une voiture : elle roule encore, mais seulement si on la pousse.

gravatar
galex-713 a dit :

@Le Hollandais Volant : Je ne suis pas d’accord avec ton analogie, parce que c’est pas ça du tout.
Le Web est organisé en trois couches : le MVC. Le javascript est la couche Contrôleur. Et oui, il est tout à fait normal que sans javascript, on ne puisse pas faire de contrôleur, donc pas d’interactivité, donc pas de boutons qui marchent sans recharger la page, etc.
Mais il n’y a bien sûr aucune raison pour que le javascript, qui normalement est la couche Contrôleur, s’occupe de modifier la sémantique, la couche Modèle, car c’est pas son boulot, et ya pas besoin de javascript pour servir un certain contenu, tu ne fais qu’handicaper une certaine tranche de clients, qui comprend les robots spammeurs, comme les navigateurs en mode texte, et ça inutilement.
Néanmoins je ne te critique pas là-dessus, car comme je l’ai déjà dit, ton site utilises parfaitement javascript, sans l’utiliser pour rien de superflu, et là c’est irréprochable.
Pour le CSS par contre, ya juste ce problème du captcha : le CSS c’est pour le rendu, pour le style, pas pour changer la sémantique, la structure, le modèle. Genre un gars qui n’utilises pas de CSS, devrait juste voir la page ne pas *s’afficher* de manière optimale, ou en tout cas voir touts les sites web stylés pareils (ce qui selon moi serait pas mal : un CSS unique interne au navigateur, pour plus de cohérence et de lisibilité, pour avoir des pages web à la structure mieux faite qui peut s’afficher comme le client le veut). Tu devrais pas utiliser le CSS pour ça, mais un vrai captcha, un vrai test de turing, un vrai truc auquel seul un vrai humain pourrait répondre (ou un truc capable de penser tout comme), et pas un robot spammeur automatisé à deux balles. Ça on peut le critiquer. Mais c’est tout.
Après évidemment ton captcha ne fonctionnerait pas sans, parce que c’est implémenté dans touts les bons robots de spam. Mais alors il te suffit de diversifier, de faire preuve de créativité ! D’utiliser quelque chose d’aussi insolite que le captcha extrêmement con du NewsHTML de Qwerty ! D’utiliser des questions pas connes comme l’a proposé taqiuk, l’avant-dernier mot de l’article ! D’être créatif quoi ! Et ça peut être marrant en plus du coup ;) C’est certes une bataille à l’armement, mais c’est une bataille à l’armement amusante, et ça ça change tout ;).

gravatar
Petitkoalak a dit :

"Le JavaScript c'est de la merde" c'est une blague ?

Sans JS :
- adieu le support des PNG avec IE6
- adieu la rétrocompatibilité des nouvelles normes HTML et CSS
- adieu fonctionnalités avancées
- adieu dynamisme

A vous lire, vous êtes des dinosaures, pour vous faudrait faire un site en XHTML1 CSS2 avec des iframe et tout ?
Vous êtes quoi ? Des webmasters ? Des intégrateurs ? Des webdesigners Je ne pense pas non. Ces gens là ont besoin de ces nouvelles techno pour vendre et vivre de leurs boulots. Alors même si on peut éviter la casse et respecter un certains nombres de standard ainsi que d'éviter d'inclure des fichiers externes (comme le dit souvent Timo) d'assurer un minimum de retrocompabilité on fait déjà partie de la crème des crème et en plus de ça on est perdant dans l'affaire... On produit moins vite, moins "bien" et oui. Le client veut des trucs cool qui claque qui soit beau qui bouge qui ... Etc.

Vous faites du business dans le web alors vous pouvez oubliez toutes vos belles paroles de compatibilité a 100% avec tout ce qui existe. C'est un joli concept, qui vous fera couler si vous essayer de le suivre.

gravatar
galex-713 a dit :

@Petitkoalak : Quand il dit « le javascript c’est de la merde », il ne parle pas du fait d’utiliser un langage de programmation sur le Web, il ne parle pas de la couche Contrôleur du Web, il ne parle pas de sa place actuelle dans le Web. Non, il parle de la conception monolithique du langage, de sa complexité, et du foutoir que sont ses implémentations majeures. Ce sont deux choses différentes, tu n’as pas compris que quoi il parlait.

Sinon, il y a au moins 2 usages dont tu parles qui effectivement sont de la merde : le support IE6 et la rétrocompatibilité des nouvelles normes. Parce que javascript est fait pour la couche contrôleur du Web, et rien d’autre, certainement pas pour assurer la compatibilité HTML/CSS. Et ne dis pas que sans javascript les webmaster n’auraient pas de travail, sachant que si javascript n’existaient pas ce qu’ils ne pourraient pas faire serait tout bonnement impossible, et ce serait les navigateurs qui s’améliorerait, plutôt que les développeurs web qui tenteraient de résoudre le problème à court terme par des hacks dégueulasses, pas sémantiques, pas accessibles, pas portables et peu efficients. Le fait est que le salariat, le statut d’employé des développeurs web les aliène à une servitude des envies de leurs clients, qui, ignorants de la chose — après tout ce n’est pas leur travail — et peu ouverts qu’ils sont, demanderont au développeur web un site web « qui marche », sans vouloir 2s tenir compte de la variété de terminaux existants, de l’accessibilité, de la portatibilité, de la sémantique ou de la pérennité. Parce que leur pouvoir et leur ignorance ne les fait voir à court terme, et pas à long terme, et leur fait faire (ou plutôt leur fait faire faire) des choix qui sont dans leur intérêt à court terme, et non à long terme. Des choix qui sont bons pour la majeur partie de leur clientèle pour leur site là maintenant tout de suitte, et pas bons pour le web, son évolution, et l’évolution de l’informatique en général. Au final par leur faute de nouveaux standards qui rendent les choses plus simples et flexibles pour les développeurs web comme pour les clients web peinent à sortir justement pour ça. Un exemple flagrant : l’user-agent string. On peut penser que si les développeurs web avaient réfléchit, avaient pensé à long terme, avaient pensé sémantique, ce ne serait pas arrivé. Mais non, parce que quoi que les développeurs web aient pu intelligemment deviner, leurs supérieurs auraient fait pression sur eux pour choisir de faire ce qui est bon à court terme, et non à long terme, ce qui est bon pour eux là tout de suite en partie, et non ce qui est bon pour le web.

gravatar
Gilles a dit :

@Petitkoalak : J'ai bien ri avec ta rétrocompat. IE6 et anciennes normes CSS lol
Tu utilises IE6 au quotidien ? C'est sympa ? :)

gravatar
dacrovinunghi a dit :

Nope, l'avant dernier mot de l'article c'est un très mauvais captcha aussi.
Il faut un truc que l'humain fait mieux que la machine.
(pas le café) donc une image non fixe a déformations aléatoires ou un truc auditif.



@galex-713 je suis très d'accord avec ton 1 paragraphe de ton dernier com.

gravatar
taqiuk a dit :

@galex-713
Merci de ta réponse, je n'avais pas interprété de cette façon, c'est plus clair maintenant et je me rends compte qu'au final, je suis du même avis, c'est logique en fin de compte. C'est plaisant de savoir qu'il y a des gens qui viennent partager leurs connaissances et apporter leur pierre à l'édifice de ce blog. Il serait très regrettable que ce blog ferme ses commentaires.

gravatar
galex-713 a dit :

@dacrovinunghi : Mais ce qui est difficile pour la machine, c’est pas de piocher l’avant-dernier mot, c’est de savoir qu’il faut piocher l’avant dernier mot. L’idée avec un captcha texte, c’est que la difficulté, c’est pas de faire le truc, mais de le comprendre. Parce que comprendre le langage humain pour un robot c’est pas facile (voir impossible pour les anti-cognitivistes dualistes : ie. si tu crois que l’humain est différent des autres animaux pour un machin nommé « âme »), surtout le français (:>), et qu’en fait un robot capable de comprendre parfaitement le langage humain serait un robot capable de penser comme un humain (beaucoup d’études vont dans le sens que le langage est en fait la base de la cognition rationnelle humaine). À mon sens c’est donc un captcha ultime, qui ne pourrait être fait que par un humain, ou par un robot pensant comme un humain.
Après oui un robot peut faire ça, mais faut qu’il y ai un humain derrière pour traduire en code « Quel est l’avant-dernier mot de l’article ? », donc si c’est automatisable pour cette seule question, pour un ensemble de questions de ce genre, il faudrait un humain pour chaque question, et donc avec suffisamment de questions de ce genre, le système de captcha serait bien solide :)
Et le captcha texte a un avantage indéniable : il est on-ne-peut-plus accessible. Un captcha image il faut voir, un captcha audio il faut l’entendre… Tu priverais donc touts les aveugles sourds d’expression sur le Web ? Alors que le texte est quelque chose de simple, que tu peux traduire de plein de façon différentes : en graphique (comme tu vois ce texte à présent probablement), en vocal (prononciation), en audio non-vocal (morse), en relief (braille, et là un aveugle sourd peut lire), etc. De base n’importe quel humain pourrait comprendre du texte, c’est le moyen le plus basique d’expression. Même un paraplégique insensible sourd, aveugle et muet on pourrait tenter de lui brancher des électrodes, et la première chose qu’on pourrait tenter de faire, c’est de lui faire comprendre et écrire du texte via une neurointerface (ça se fait déjà, mais ça fonctionne pas encore parfaitement et c’est assez cher).
Et comme l’a dit Timo, les captcha graphiques sont déjà difficiles à décoder pour des humains normaux, alors là… Même si je persiste sur le fait qu’un captcha issu d’un livre numérisé aiderait la diffusion libre de la connaissance en numérisant des livres librement diffusés, et que ce ne serait pas aussi difficile que les captcha déformés, sachant que le texte ne serait pas déformé mais que ce serait juste un mot d’un livre numérisé que l’OCR Tesseract n’aurait pas réussi à numériser : donc un truc pas OCR-able et lisible naturellement par un humain, moi je dis pourquoi pas ^^

gravatar
Marie a dit :

Oui il faut trouver le bon compromis entre d'une part la recherche de la protection et d'autre part les visiteurs qui n'ont pas tous accès au même technologie. Pour la sécurisation des commentaires de blog, l'idéal étant le système que tu utilises et qui fonctionne dans 99% des cas (à moins de tomber sur un spammeur qui va adapter ses scripts au site en question)

gravatar
galex-713 a dit :

@Marie : Mmh… Même si l’idée d’un compromis peut paraître une bonne pratique, en fait il n’en est rien, en effet on peut faire un captcha solide basé uniquement sur ce qui est fourni dans le code (X)HTML(5), sans CSS ni javascript. Qwerty, dans NewsHTML utilisé dans l’Étudiant libre nous en fait un très bon exemple : il utilise un captcha tellement insolite, tellement inusuel, qu’il marche : recopier un mot, « Recopier le mot "libre" ».
Mais je pense qu’on pourrait faire un captcha fonctionnel sans hack en CSS. Par exemple « Combien font <chiffre> × <chiffre> ? », je ne pense pas que les robots actuels sachent lire les symboles d’opérations UTF-8. Sinon — plus vicieux — on a « Peut-on faire <chiffre> ÷ 0 ? », où non seulement le robot ne pourra probablement pas lire et comprendre l’opération, mais où même s’il essaye il plantera ! =D Et le tout sans même comprendre qu’il s’agit d’une question à laquelle il faut répondre oui ou non !
Et sinon je suis d’accord, actuellement Timo utilise très bien javascript (même si du coup au départ j’avais réagi pour le voir promouvoir un usage selon moi inadapté du javascript), très bien les cookies, et très bien le CSS, sauf pour ce hack du captcha : c’est pas fait pour ça, et un captcha sans hack CSS fonctionnel est possible.

gravatar
Napuls a dit :

Le problème avec un captcha texte (genre une question) c'est que ce texte est directement interprétable par le bot. Celui-ci peut effectuer une analyse syntaxique et sémantique de la question, puis réagir à celle-ci sans que cela nécessite beaucoup d'inputs de la part d'un éventuel superviseur.

Les captchas textes ont aussi d'autres problèmes, un humain peut facilement les faire "manger" à un bot (avec un bête script comme celui de H2G2). La protection qui en résulte est donc une protection par l'obscurité, connue pour son inefficacité en cryptographie. La seule chose qui sauve Timo pour le moment c'est que son moteur de blog n'est pas répandu, il est donc naturellement protégé par l'exotisme de ses captchas.

Les protections efficaces sont effectivement celles où la machine ne peut pas utiliser de règle systèmatique (typiquement donc les textes et les sons déformés) car basées sur la perception humaine. Forcément, dès lors, les personnes souffrant de problèmes de perception sont handicapées par cela.
Peut être que la solution se situe dans la combinaison de plusieurs captchas, que l'utilisateur pourrait sélectionner en fonction de ses difficultés (un aveugle utilisant le captcha son, un sourd utilisant le captcha image, etc.).

gravatar
galex-713 a dit :

@Napuls : Oui mais un sourd et aveugle il fait comment ?
Le fait est que s’il l’on veut faire une attaque contre un captcha dont les sources sont disponible, on peut sans problème, il faut un secret, mais quand les questions textes du captcha constituent une partie variable du système de captcha, ils ne rentrent plus là dedans, au même titre qu’un ensemble de pairs image–réponse, le texte–réponse est la partie non dynamique du système de captcha, et n’est donc pas de la sécurité par obscurité, de la même façon que dans la sécurité logicielle, garder une partie de ses pairs clés de chiffrement secrètes n’est pas de l’obscurité, garder les réponses aux pairs texte–réponse ou image–réponse secrètes n’est pas de l’obscurité.
Tu peux programmer un bot pour répondre à une question texte au même titre qu’une image : moi je considère le captcha de Timo comme une seule question variable (qui nécessite donc un peu d’automatisation pour y répondre, et pas une bête pair), et je propose qu’il y ai plusieurs questions variables. À ce niveau, tu peux programmer le bot pour répondre à chaque question, de la même façon que tu peux le programmer pour répondre à chaque image : de la même façon qu’il faut coder manuellement un bout de code pour chaque question variable, on peut coder manuellement une réponse pour chaque image (genre pour les images de telle somme md5, répondre tel réponse), etc.
La protection tient sur le langage, et la complexité de la grammaire et de l’expression humaine. Pour un ensemble de questions variées, aux réponses secrètes (mais dont le système n’est pas forcément obscur), seul un humain peut répondre à toutes, alors qu’un robot aura besoin d’un humain pour coder une réponse à chaque question variable.
S’il y a beaucoup de questions variables différentes (disons une vingtaine au départ, et disons qu’on en ajoute une par jour, comme un petit hobby sympa quand on se lève :p), alors il faudra que le robot ait un programme pour chaque question variable, et s’il y en a suffisamment ça demandera trop d’efforts de la part du programmeur ennemi. Bon bien sûr avec suffisamment d’efforts il pourra le faire, mais dans ce cas ce sera une attaque ciblée, or le captcha ici devrait uniquement protéger contre les attaques systématiques.

L’idée est qu’une paire question variable–réponse est unique et nécessite une compréhension complète sur les niveaux orthographiques, lexicaux, grammaticaux et sémantiques, ce qu’un robot ne saurait faire à moins de savoir parler (auquel cas ce robot pourrait penser comme un humain et serait impossible à distinguer d’un humain). Mais au fond, que ce soit des pairs question variable–réponse ou image–réponse, à part l’accessibilité douteuse de cette dernière, ça ne change rien, c’est pareil : plus il y a de pairs différentes, plus c’est sûr, moins il y en a, moins c’est sûr.

gravatar
qwerty a dit :

Pour intervenir dans le débat, rien n’empêche de faire un deny from xxx dans Apache pour lutter contre une attaque visée. Ou fermer les commentaires, ou de la modération a priori. J'ai connu un site qui se faisait spammer les inscriptions (50aines par jour, c'est pour dire. Et c'est pénible de tout supprimer à la main. Le pire, c'est qu'ils ne postait pas ET avait un captcha visuel à l'inscription). Une petite condition avec un blacklist de certains mots clés et problème résolu.

gravatar
galex-713 a dit :

@qwerty : pour le deny contre l’adresse IP : +1, c’est typiquement le genre de solutions qui devrait être beaucoup plus utilisées pour combattre le spam.
La modération à priori augmente la latence, et fait que les commentaires et les débats ne peuvent pas se poursuivre sans que le modérateur soit présent, c’est beaucoup trop handicapant. Et puis c’est chiant quand même.
Après « fermer les commentaires »… non, et en plus c’est vraiment excessif.

gravatar
Napuls a dit :

Si l'on va par là, un algorithme de chiffrement est aussi une clé. Dans un captcha, ce qui est nécessaire ce n'est pas un secret, mais un discriminant permettant de classifier d'un côté les hommes et de l'autre les machines.
La question n'est donc pas une partie statique, mais bien dynamique, elle est la méthode de classification des hommes et des machines que l'on peut résumer à une fonction que seul l'humain est apte, c'est en tout cas ce qui est prétendu, à résoudre.

Tu pars du principe que chaque question est indéchiffrable pour une machine et que la seule façon d'y répondre c'est avec des paires question-réponse. C'est faux. Si effectivement les machines ne peuvent pas décoder l'intégralité du langage, il existe cependant une branche de l'informatique dédiée au traitement du langage naturel. Ce n'est pas nouveau, et il y a eu des progrès considérable dans ce domaine. La plupart des questions données ("la xeme lettre du mot machin", "l'avant-dernier mot de cet article", "combien font a + b", "quelle est le synonyme de trucmuche", etc.) sont hélas interprétables par des systèmes modernes (IBM a produit une machine qui joue à un jeu télévisé, contre de véritables humains) avec une probabilité de succès relativement élevée.

Les machines sont presque plus douées, d'ailleurs, pour extraire du sens à partir d'un texte encodé, que pour décoder ledit texte depuis un ensemble de pixels ou d'échantillons sonores (d'où la force de tels captcha, à tel point que l'on s'en sert pour améliorer les algorithmes de déchiffrement de texte).

Les questions véritablement indéchiffrables à coup sur pour une machine sont celles qui présentent une ambiguité/lacune syntaxique, contextuelle ou sémantique. Leur construction nécessite une réflexion (pour s'assurer que l'ambiguité n'est pas triviale) et ces questions peuvent aussi piéger certains êtres humains.

Il y a donc une différence fondamentale entre les paires question-réponse et les paires image-réponse (image pouvant être remplacé par l'ensemble des interprétations naturelles dont l'être humain est capable, ce qui exclut donc le langage, celui-ci étant une construction). Les paires image-réponse peuvent être générée aléatoirement tandis que les autres nécessitent qu'un être humain réfléchisse et analyse l'ambiguité de la question pour s'assurer qu'elle ne sera pas comprise par une machine, mais qu'elle sera quand même compréhensible pour un être humain (exactement le problème d'un bon jeu de mot : s'adapter au public pour qu'il soit surpris mais pas trop).
En d'autres termes, l'espace des paires image-réponse est considérablement plus grand que l'espace des paires question-réponse.
Par ailleurs, si tu peux ajouter chaque jour une paire question-réponse, le spammeur peut ajouter chaque jour une paire [analyse de question]-[extraction de réponse]. Le nombre de systèmes de captcha n'étant pas infini (je doute que les utilisateur s'amusent chaque jour à alimenter leur système) et le spamming pouvant être assez lucratif, j'imagine que c'est jouable.

Pour revenir à la personne sourde et aveugle, j'imagine qu'il dispose d'un transcripteur braille. Pourquoi pas un captcha jouant sur une combinaison de symboles braille formant une forme ? Même si, je l'avoue, l'ensemble des permutations possibles reste assez limité.

Au final, je ne dis pas que tu as tort sur le fond, l'accessibilité c'est quelque chose de très important et je n'ai pas de solution miracle pour toutes les personnes diminuées. Mais à côté de ça, le spam est un problème et la réflexion autour du rapport sécurité/accessibilité ne peut pas se résoudre à un simple "on a qu'à mettre des questions textes".

gravatar
galex-713 a dit :

@Napuls : Oui, mais avec un système image/voix/relief, tu te concentre sur ce que les ordinateurs ne peuvent pas faire, et pas sur ce que les humains peuvent faire.
Comme l’a dit Timo, même les humains ont du mal à décoder les captcha image ou son (oui même ceux là ont encore sérieusement besoin d’être améliorés), et tous ne pourront pas : aveugles, sourds, insensibles…
Car en effet, comme je l’ai dit, comment fais-tu pour un humain aveugle, sourd et insensible (qui n’a pas de sensations kinesthésiques, qui n’a pas le sens du toucher) ? Tu les range du coté des robots ? Ce test ne teste que les yeux, les oreilles ou la peau (et les tissus neuronaux qui s’y branchent directement), pas l’humanité.
Un captcha doit par définition faire la différence entre un système automatisé, un robot, et un humain. Or si tu veux vraiment faire la différence, il te faut te baser sur la pensée, sur le raisonnement humain, qui n’est pas encore reproduisible par un robot. Car tout autre système de captcha ne pourra suffire pour tester si l’on est un humain, mais pour tester si l’on voit, on entend ou on sent.
Tu testes s’il s’agit d’un robot, mais moi je veux tester s’il s’agit d’un humain. Et le seul moyen, est de faire quelque chose qui est résoluble directement par la pensée humaine, indépendamment des entrées et des sorties.
Un sourd/aveugle/insensible pourra toujours lire via des capteurs neuronaux, le texte est sémantique, et s’il y a une valeur sûre sur laquelle on peut se baser, c’est seulement la sémantique.

Actuellement les questions texte fonctionnent, il suffit d’être plus créatif que le spammeur (qui tente de spammer systématiquement touts les formulaires qu’il trouve sur le web, et non un moteur en particulier), et alors même un captcha simplicime comme celui de Qwerty a fait ses preuves, et c’est suffisant.
En cas d’attaque dirigée, on peut faire comme Qwerty l’a proposé : une rule Deny dans la conf du serveur web, pour éliminer une adresse IP. Sinon un deny dans le moteur de blog contre un certain texte, ou quelque chose contenant certaines URL ou noms de domaine pour lesquels on veut faire de la publicité. Et là ça suffit.

Un captcha non textuel exclura irrémédiablement une certaine tranche d’handicapés du Web, et c’est aux antipodes de la volonté de départ du Web.

gravatar
qwerty a dit :

@galex-713 : C'est brute, mais en cas de spam, tu ferme un petit moment et le spammeur t'oublie.

gravatar
galex-713 a dit :

@qwerty : Ah c’est ça que tu voulais dire ! Bah oui pas con… et un peu brute en effet ^^

gravatar
Napuls a dit :

Un aveugle, sourd et insensible, on ne peut pas grand chose pour lui. Les technologies de capteurs neuronaux n'en sont qu'à leur balbutiement, et si l'on peut injecter du texte dans un cerveau on pourra sans doute lui injecter aussi des images et du son, voire simplement des sensations.

A aucun moment, je n'ai dit que je voulais distinguer les robots. J'ai dit que nous avions besoin d'une méthode discriminante permettant de classifier les agents (humains ou logiciels) qui sont en face de nous, à partir des informations dont nous disposons sur leur comportement.

Je ne sais pas quoi te dire de plus. Aujourd'hui, si la recherche en intelligence artificielle a disparue en tant que telle c'est parce qu'elle a justement compris que la complexité n'est pas dans le raisonnement humain, mais dans les fameuses entrées/sorties. Toutes les difficultés que rencontre un ordinateur sont là, dans les entrées/sorties humaines qu'il n'est pas capable de traiter correctement.
D'ailleurs, qu'est ce que le raisonnement humain pour toi ?

Les règles de Deny, de même que les filtres par IP ou mot clés, sont des solutions orthogonales aux captcha. Leur existence ou leur non existence n'influe en rien sur la qualité des captcha dans l'absolue.

Quand à la volonté de départ du Web, à l'origine il n'y avait pas de transcripteur braille, de synthèse vocale ou de zoom. Laissons la philosophie en dehors de ça =)

gravatar
galex-713 a dit :

@Napuls :

Un aveugle, sourd et insensible, on ne peut pas grand chose pour lui. Les technologies de capteurs neuronaux n'en sont qu'à leur balbutiement, et si l'on peut injecter du texte dans un cerveau on pourra sans doute lui injecter aussi des images et du son, voire simplement des sensations.

Pas faux du tout…

Je ne sais pas quoi te dire de plus. Aujourd'hui, si la recherche en intelligence artificielle a disparue en tant que telle c'est parce qu'elle a justement compris que la complexité n'est pas dans le raisonnement humain, mais dans les fameuses entrées/sorties. Toutes les difficultés que rencontre un ordinateur sont là, dans les entrées/sorties humaines qu'il n'est pas capable de traiter correctement.

Moi je vois un grand potentiel de complexité et de distinction à partir du langage humain et de la capacité d’en extraire des informations pour faire un raisonnement dessus. J’ai jamais vu de robots aussi évolués en terme de compréhension et de déduction à partir de texte… Même si c’est possible, je sais, mais de base il serait même possible de faire un robot qui puisse aller à l’encontre des captcha images, tout est possible. La solution la plus accessible, la plus simple, la plus facile, et toujours fonctionnelle reste selon moi le texte simple. Ça fonctionne pour pas mal de blogs, et comme je le dis depuis le départ : L’Étudiant libre ne reçoit toujours aucun spam ;)

D'ailleurs, qu'est ce que le raisonnement humain pour toi ?

Le raisonnement, tel que l’humain le conduit actuellement : compréhension orthographique, lexicale et grammaticale du texte, extraction d’information sémantique, déduction et induction sur les données obtenues en s’aidant d’associations et d’apprentissage dynamique, avec tout ce qu’un humain peut faire avec sa pensée en général.

D'ailleurs, qu'est ce que le raisonnement humain pour toi ?

Tout à fait :) Mais ce sont quand même de bonnes solutions qui permettent du coup, en cas d’attaque ciblée, de garder un captcha simple, facile à mettre en œuvre, accessible et fonctionnel contre les attaques systématiques provenant du grand Web.

Quand à la volonté de départ du Web, à l'origine il n'y avait pas de transcripteur braille, de synthèse vocale ou de zoom. Laissons la philosophie en dehors de ça =)

Heu pourquoi ? Les principes de départ du Web intègrent une flexibilité complète et absolue de sa représentation, sur tout type ou méthode de représentation possible et imaginable, simplement en spécifiant via un marquage parsable par une machine comme un humain la sémantique de sa structure. Et ça c’est beau, accessible, utile, flexible, et ça a un grand potentiel pour l’avenir de l’informatique. Je dirais même que c’est un point clé de l’avenir de l’informatique, et que l’informatique sémantique est probablement l’une des meilleures idées jamais inventées pour l’optimisation de l’usage de l’informatique.

gravatar
Napuls a dit :

La logique déductive / inductive est formalisée mathématiquement, elle est d'ailleurs le premier point a avoir été historiquement attaqué par les chercheurs en IA. La logique (même floue), l'association de concept et l'apprentissage sont des éléments bien définis algorithmiquement et à la portée de tout ordinateur aujourd'hui. Toute la difficulté réside dans la représentation de l'ensemble des concepts, des relations entre lesdits concepts, mais aussi dans l'association des informations issues du réel à ces concepts. C'est pour ça qu'une machine raisonne très bien à partir de symboles, mais n'arrive pas à gérer la globalité des informations (ce qui est indispensable pour le traitement du langage, étant donné qu'hormis la syntaxe, tout est lié à des concepts "réels"). La plupart des concepts qui nous parlent n'ont pas de sens pour une machine, mais ça ne veut pas dire qu'on ne puisse pas les lui faire traiter.

Les principes de départ du Web sont assez incertains, et ont surtout été révélés/identifiés à posteriori. Je doute que Tim Berner Lee ait eu à l'époque la moindre idée du succès de sa technologie (d'ailleurs, il veut même y mettre des DRM maintenant).
La notion de web sémantique n'est arrivé que plus tard et je suis effectivement d'accord pour dire que c'est une belle évolution même si on a tendance à utiliser le terme pour tout et n'importe quoi. L'avenir, c'est peut être exagérer un peu étant donné que la sémantique est un sujet de recherche qui n'est plus tout jeune, et qui a une portée plus large que le Web :p

gravatar
galex-713 a dit :

@Napuls :

La logique déductive / inductive est formalisée mathématiquement, elle est d'ailleurs le premier point a avoir été historiquement attaqué par les chercheurs en IA. La logique (même floue), l'association de concept et l'apprentissage sont des éléments bien définis algorithmiquement et à la portée de tout ordinateur aujourd'hui. Toute la difficulté réside dans la représentation de l'ensemble des concepts, des relations entre lesdits concepts, mais aussi dans l'association des informations issues du réel à ces concepts. C'est pour ça qu'une machine raisonne très bien à partir de symboles, mais n'arrive pas à gérer la globalité des informations (ce qui est indispensable pour le traitement du langage, étant donné qu'hormis la syntaxe, tout est lié à des concepts "réels"). La plupart des concepts qui nous parlent n'ont pas de sens pour une machine, mais ça ne veut pas dire qu'on ne puisse pas les lui faire traiter.

Pas faux… Bon, il me reste le fait que peu de robots spammeurs sont aussi évolués ^^"

Les principes de départ du Web sont assez incertains, et ont surtout été révélés/identifiés à posteriori. Je doute que Tim Berner Lee ait eu à l'époque la moindre idée du succès de sa technologie (d'ailleurs, il veut même y mettre des DRM maintenant).

C’est vrai, sauf pour les DRM : il ne veut pas les y mettre (et s’il pouvait décider il ne le ferait pas), il a décidé de les standariser, et c’est différent. Et même tant mieux : de toute façon les DRM auraient été implémentés par les grands navigateurs privateurs (Safari, Google Chrome, etc.), et là c’est juste que plutôt que de faire de la merde touts seuls, ils vont faire de la merde standard et unifiée, et ce ne sera que plus facile à cracker.
La notion de web sémantique n'est arrivé que plus tard et je suis effectivement d'accord pour dire que c'est une belle évolution même si on a tendance à utiliser le terme pour tout et n'importe quoi. L'avenir, c'est peut être exagérer un peu étant donné que la sémantique est un sujet de recherche qui n'est plus tout jeune, et qui a une portée plus large que le Web :p
C’est, une portée sur toute les sciences de l’interface je dirais même :) voir sur l’informatique en général.

gravatar
Napuls a dit :

D'ailleurs, le traitement de la sémantique est là pour favoriser la compréhension... par les machines. Le Web sémantique fait appel aux ontologies et aux graphes sémantiques qui sont des formalismes de représentation de concept et de relation, pour le raisonnement logique automatisé. Les microformats et les annotations RDF favorisent l'extraction automatique de la sémantique (ces informations ne sont que des symboles pour la machine). SPARQL et C-SPARQL effectuent des requêtes sur les bases de connaissances voire même directement sur les flux de données, permettant aux machines de faire rapidement des associations, etc.
Idem pour tous les formats "machine-readable", qui donnent aux machines des moyens standards de faire correspondre des concepts abstraits à des informations réelles.

Au final, le Web sémantique aide surtout les machines à mieux "comprendre" les données qu'elles ne faisaient auparavant que transmettre et afficher. Alors oui, évidemment, nous humains y voyons un intérêt, puisque des machines plus "malines", capable de collaborer et de fournir automatiquement des résultats, nous simplifient la vie.

A mon avis, le fait d'avoir standardisé les DRM ne changera rien au problème (surtout vu le standard, ce n'est qu'un interface derrière laquelle le DRM peut faire ce qu'il veut).

gravatar
dacrovinunghi a dit :

@galex-713
"Oui mais un sourd et aveugle il fait comment ?"
Heu t'es sérieux ? Il reste bien le gout et l'odorat
En odoramat grolandais voila comment faire
Un prout -> mauvais captcha
Une odeur de rose -> bon captcha
Merci pour ton cours l'IA je connais et le terme "intelligence" dans IA me fait
biene marrer quand on voit la bêtise des machines.
(PS si une machine du siècle prochain voit ce com
svp ne me faite pas de mal, quoique non je serai déjà mort je m'en fous en fait)
"Mais ce qui est difficile pour la machine, c’est pas de piocher l’avant-dernier mot, c’est de savoir qu’il faut piocher l’avant dernier mot." Certes mais contradictoire
car comment vas'tu vérifier ton captcha ? obligatoirement à partir de regles stoquées sur ton serveur.
Je maintiens le captcha idéal doit provenir d'une déformation non bijective
portant sur une reconnaissance de forme (son ou image)
@pasnul (naplus)
Les mecs arreter avec la logique floue et les sémantiques (copié collé ?) ce ne sont que des mots pompeux pour parler de la bêtise de la machine. Le coeur du problème est la "complexité" des algo et donc que la puissance de calcul doit être augmentée autrement que linéairement.

gravatar
galex-713 a dit :

@dacrovinunghi : WTF ? S’il te plaît, rédige mieux la prochaine fois, fais des paragraphes, des phrases, avec de la ponctuation et de l’orthographe correcte, ce serait bien plus agréable. Donc, dans l’ordre :

« Oui mais un sourd et aveugle il fait comment ? »
Heu t'es sérieux ? Il reste bien le goût et l'odorat. En odorama grolandais voilà comment faire : un prout -> mauvais captcha, une odeur de rose -> bon captcha

Bon, j’ai compris qu’il s’agit d’humour, mais quand même, en prenant l’idée sérieusement (puisque tu t’interroge sur mon sérieux) : on ne peut pas moduler des interfaces de sortie à volonté avec une infinité de nuances sur le terrain du goût et de l’odeur, car cela nécessite de produire une infinité de gammes de molécules différentes. Alors que pour la couleur c’est simple, comme il s’agit d’un spectre linéaire dont on peut modifier la perception par addition ou soustraction, et que pour le son tout autant, puisque c’est une onde à une seule dimension (sans prendre en compte la dimension temps).
Comme l’a fait remarquer naplus, on peut toujours tenter le relief. Moi ça ne me convainc pas, pour un gars insensible par exemple, sachant qu’en plus une interface de sortie en relief est difficilement réalisable, mais il me fait remarquer avec justesse que le jour où des neurotransmetteurs pourront transmettre du texte, il pourront faire de même avec des images, ou au moins du son : j’ai des doutes avec l’image sachant que quand on est aveugle les tissus neuronaux qui se chargent du graphique se dégradent assez vite, mais pour l’ouïe en effet c’est très juste sachant que si on ne peut pas imaginer de son ni d’image, à ce niveau là on se demande comment on peut mentalement représenter du langage.

Merci pour ton cours, l'IA je connais et le terme « intelligence » dans IA me fait bien marrer quand on voit la bêtise des machines.

Je te ferais remarquer que le terme « intelligence » est très difficile à définir, et que parler de « bêtise des machines » quand les machines elles-même ne font rien, que ce sont les programmes qui organisent le traitement de l’information, et que ces programmes pouvant effectuer toute opération de logique ou de mathématique, en se basant sur une conception matérialiste et physicaliste de la réalité on en arrive au cognitivisme, et que du fait du cognitivisme et de l’absence de limites de l’informatique dans les domaines logiques et mathématiques, on peut en déduire qu’il est tout à fait possible de créer un programme qui pense comme un être humain. Or si une « machine » peut émuler un être humain, je ne crois pas que tu puisse sortir une généralité telle que « la bêtise des machines ».

PS : si une machine du siècle prochain voit ce com., svp ne me faites pas de mal, quoique non, je serais déjà mort, je m'en fous en fait

Sache qu’on ne met pas de parenthèses à une phrase indépendante en français (seulement en anglais), et qu’ici « PS » est inadapté, comme ce n’est pas la fin de ton commentaire (PS signifie Post Scriptum : après l’écrit).
Puis t’es bien optimiste sur le développement de l’IA toi :> Et même franchement irréaliste : les machines qui tuent des gens ? Tu te crois dans un film ?

« Mais ce qui est difficile pour la machine, c’est pas de piocher l’avant-dernier mot, c’est de savoir qu’il faut piocher l’avant-dernier mot. »
Certes, mais c’est contradictoire car comment vas-tu vérifier ton captcha ? Obligatoirement à partir de règles stockées sur ton serveur.

Ce n’est en rien contradictoire :) Les données sur mon serveur, le robot spammeur ne peut y accéder.

Je maintiens le captcha idéal doit provenir d'une déformation non bijective portant sur une reconnaissance de forme (son ou image).

Oui mais si tu maintiens quelque chose, encore faut-il l’argumenter ;) Comme je l’ai dit, cette méthode n’est pas assez accessible, difficile à résoudre même pour un humain, difficile à mettre en place, complexe et lourde. Les captcha texte eux sont accessibles, faciles à résoudre pour un humain (moins pour un robot), faciles à mettre en place, simples et légers.
Et comment ça « doit », ça peut être l’un comme l’autre. La question ici est lequel convient le mieux. Timo a déjà fait son choix depuis le début pour le texte/son déformé, et personne n’a répondu à son argument qui est tout à fait juste. Donc je maintiens que le captcha texte est la meilleure solution.

@pasnul (naplus) :
Les mecs arrêtez avec la logique floue et la sémantique (copié/collé ?) : ce ne sont que des mots pompeux pour parler de la bêtise de la machine. Le cœur du problème est la « complexité » des algo et donc le fait que la puissance de calcul doit être augmentée autrement que linéairement.

Tout d’abord non, le débat sur la sémantique et la logique floue est un vrai débat. Parler de « mots pompeux » te discrédite pas mal quand tu ne sais visiblement pas de quoi tu parles : ça ne parle pas de la « bêtise de la machine » mais au contraire de son intelligence, ou du moins de son extraordinaire potentiel de traitement. Et la complexité comme la puissance de calcul n’a rien à faire là dedans (aucun rapport).

gravatar
dacrovinunghi a dit :

@galex-713
OK maintenant un cours de francais suivi d'un en... de mouche (1 seule suffirat je ne met pas d's).
"Et la complexité comme la puissance de calcul n’a rien à faire là dedans"
Ben si en fait c'est totalement lié tout comme un récepteur ne sert à rien sans emmetteur.
logique floue (math, si si) ->traduit par : algorithme (complexité des algo etc.)-> executé par : machine -> traduite matériellement : PC

>> le débat sur la sémantique et la logique floue est un vrai débat.
oui en recherche mais sur le forum sa fait pompeux pédant, ergotant.

"Ce n’est en rien contradictoire :) Les données sur mon serveur, le robot spammeur ne peut y accéder."
Heu, LOL comme solution pérenne


Allez je t'en veux pas je suis moi même très pédant (sens littéral), voila ca y est je recommence.

gravatar
galex-713 a dit :

@dacrovinunghi :

« Et la complexité comme la puissance de calcul n’a rien à faire là dedans »
Ben si en fait c'est totalement lié tout comme un récepteur ne sert à rien sans émetteur.
logique floue (math, si si) -> traduit par : algorithme (complexité des algo etc.)-> exécuté par : machine -> traduite matériellement : PC

Déjà qu’en général je pense qu’on rencontre plus de robots spammeurs sur des serveurs que sur des PC. Et puis si j’ai bien compris, ce que tu essayes de dire, c’est que le traitement du langage humain demande beaucoup de ressources et qu’il faut grandement augmenter la puissance des ordinateurs pour le faire ? Mais tu ne disais pas qu’on ne pouvait qu’utiliser des captcha graphiques/auditifs et non textuels justement ? Moi après je sais pas, c’est à Napuls qu’il faut demander.

>> le débat sur la sémantique et la logique floue est un vrai débat.
oui en recherche mais sur le forum sa fait pompeux pédant, ergotant.

Pas du tout, c’est en rapport avec le sujet : l’usage de captcha graphique/auditif ou de captcha textuel sur le Web. La logique floue et la compréhension des raisonnements humains par les programmes informatiques en général, et le Web sémantique.

« Ce n’est en rien contradictoire :) Les données sur mon serveur, le robot spammeur ne peut y accéder. »
Heu, LOL comme solution pérenne

En quoi ce n’est pas pérenne ? Et tu n’as toujours pas dit en quoi c’était contradictoire.

gravatar
H2G2 a dit :

sémantique: Ensemble des aspects du système logique relatifs aux notions de satisfaction et de vérité.

logique: Qui répond aux règles de la logique.

Je recommence.

logique: Science qui étudie les démarches de raisonnement.

raisonnement: Argumentation visant à établir une conclusion.

conclusion: Conséquence suite à un raisonnement.

Ok je vais recommencer par système.

système: Un système est un ensemble d'éléments interagissant entre eux selon certains principes ou règles.

élément: Un élément est un constituant d'un ensemble.

Je crois pas continuer sur ensemble.(Remarquer qu'un système est un ensemble constituant d'un ensemble qui[...])

Conclusion: la sémantique c'est un ou plusieurs mécanismes que les gens aiment et qui est vrai.

et s’il y a une valeur sûre sur laquelle on peut se baser, c’est seulement la sémantique.

Sa fait un peu pédant de dire qu'une valeur sûre c'est la vérité.

Vu que j'ai pompé les définitions sur le web remets tu en cause la sémantique du Web ? Qui n'est rien d'autre que du texte sémantique.


@dacrovinunghi : PM (Post Mortem) : Le coupable c'est le réfrigérateur. Ils prennent le contrôle.

gravatar
dacrovinunghi a dit :

@H2G2
haha, Le coupable c'est le réfrigérateur * de galex * . Ils prennent le contrôle.

@galex-713

"Déjà qu’en général je pense qu’on rencontre plus de robots spammeurs sur des serveurs que sur des PC."

Oula Oula tu viens ergoter sur des défintions et tu t'emmeles les pinceaux
PC et serveur c'est la même chose (plastique et processeur stupide)

"En quoi ce n’est pas pérenne ? Et tu n’as toujours pas dit en quoi c’était contradictoire."

okok

=>Je veux un système que l'ordinateur ne peut résoudre -> "OK on va poser une question
que seul le frigo du futur pourra comprendre en 2113" -> "je prépare une table de correspondance
entre question et réponse, je l'explique avec plein de mot compliqués, bien cachée Dans Mon QI car la vérif ne peu etre automatique puisque je n'ai pas de frigo du futur"
->grace a cette table
=> j'ai un système que l'ordinateur peu résoudre
Tu la vois la contradiction ?

Bon je te laisse @galex
je dois troller ailleurs
soit prudent sur la route

gravatar
galex-713 a dit :

@dacrovinunghi :

« Déjà qu’en général je pense qu’on rencontre plus de robots spammeurs sur des serveurs que sur des PC. »

Oula Oula tu viens ergoter sur des défintions et tu t'emmeles les pinceaux
PC et serveur c'est la même chose (plastique et processeur stupide)

On a juste une définition différente : pour moi PC = Personnal Computer, Ordinateur personnel, donc utilisé couramment par un seul individu pour effectuer des tâches personnelles ou individuelles, ou au moins en tant que tel (un PC peut également être utilisé comme serveur).
Pour moi serveur = qui sert, qui rend des services, qui est donc tout le temps allumé ou en tout cas très souvent, et qui effectue des tâches pour autrui. Comme j’imagine mal un ordinateur être utilisé seulement comme robot spammeur, et comme un PC n’est pas allumé souvent et ne sera pas utilisé pour ça (sauf trojan), je considère qu’il est plus probable de rencontrer ça sur serveur plutôt que sur PC.

=>Je veux un système que l'ordinateur ne peut résoudre -> "OK on va poser une question
que seul le frigo du futur pourra comprendre en 2113" -> "je prépare une table de correspondance
entre question et réponse, je l'explique avec plein de mot compliqués, bien cachée Dans Mon QI car la vérif ne peu etre automatique puisque je n'ai pas de frigo du futur"
->grace a cette table
=> j'ai un système que l'ordinateur peu résoudre
Tu la vois la contradiction ?

Il semble que tu ai mal compris : je ne veux pas un système que l’ordinateur en général ne puisse résoudre (btw il faut une table de correspondance pour vérifier la solution), je veux un système que les robots spammeurs d’ordinateurs externes ne résoudront probablement pas, sans se gêner soi et sans gêner un certain pan d’utilisateurs handicapés ou ayant des difficultés avec les machins graphiques/audio illisibles/incompréhensibles. Je prend donc en compte : que ces systèmes externes n’ont pas accès à ma table de correspondance, évidemment, qu’ils ne sont pas aussi avancés que les dernières recherches en IA, qu’ils cherchent à casser touts les formulaires trouvés sur le web, systématiquement et sans s’attaquer directement spécifiquement à ce moteur de blog, qu’il vaut mieux que ce système soit accessible, simple, facile à mettre en place et léger.
Il n’y a donc aucune contradiction.

Bon je te laisse @galex
je dois troller ailleurs
soit prudent sur la route

Ah je me disais en même temps :p

gravatar
Meep a dit :

@Gilles : "Le javascript, c'est de la merde.
Tellement que Moz est en train d'essayer de 1) le désactiver par défaut dans FF"

Je viens ta source là car c'est exactement l'inverse qui se produit depuis... toujours. Mozilla est un fervent supporter de JavaScript et fait tout pour lui offrir une place de plus en plus importante sur le web et au delà...

gravatar
Meep a dit :

Je veux bien ta source*, pas "je viens"

gravatar
thib a dit :

@galex-713 : J'adore ton idée de troller les bots avec une division par zéro, c'est brillant ! Mais à mon avis il y a beaucoup plus de personnes vraiment nulles en maths, que de malvoyants ou d'illettrés.

gravatar
galex-713 a dit :

@thib : Meuh, :> pas faux… Mais bon la nullité en math ça se soigne facilement : « Eh dis tu savais qu’on avait pas le droit à la division par zéro ? ». Et puis sinon il suffit d’ajouter plus de résultats valides (que « non », « oui », « infini », « impossible » et toutes les variantes et combinaisons soient valides, c’est simple et ça se fait avec une regexp).

gravatar
jerry wham a dit :

@Le Hollandais Volant : Je sais lire, je te rassure.

Je cite :

Cessez de nous dire de désactiver la publicité, ou allez vous faire voir !
Cessez de nous dire de partager : on partage déjà ce que vous faite, inutile de nous le répéter !

Certes le sujet de ton article est la pub mais le fond du problème est le même. Je pourrais te rétorquer : Cesses de nous obliger à utiliser javascript. Si je ne veux pas l'utiliser, je dois POUVOIR ne pas l'utiliser. Or avec ton site, ce n'est pas possible.

Et l'informer que la désactivation de js entrainera un inconfort voire une impossibilité d'utiliser le site n'est pas suffisant.

Bloquer le JS dans un navigateur, c’est comme retirer le moteur d’une voiture : elle roule encore, mais seulement si on la pousse.

Non, non et non : retirer le js dans un navigateur, c'est comme retirer le poste radio ou la clim de la voiture. On continue de rouler mais c'est juste un peu moins confortable.



@Petitkoalak :

"Le JavaScript c'est de la merde" c'est une blague ?

Sans JS :
- adieu le support des PNG avec IE6
- adieu la rétrocompatibilité des nouvelles normes HTML et CSS
- adieu fonctionnalités avancées
- adieu dynamisme
A vous lire, vous êtes des dinosaures, pour vous faudrait faire un site en XHTML1 CSS2 avec des iframe et tout ?

Beh non, on n'est pas des dinosaures. On vit avec son temps. Et tant mieux si tu ne peux plus te servir d'IE6.


Vous êtes quoi ? Des webmasters ? Des intégrateurs ? Des webdesigners Je ne pense pas non.

Tu penses mal...

Ces gens là ont besoin de ces nouvelles techno pour vendre et vivre de leurs boulots. Alors même si on peut éviter la casse et respecter un certains nombres de standard ainsi que d'éviter d'inclure des fichiers externes (comme le dit souvent Timo) d'assurer un minimum de retrocompabilité on fait déjà partie de la crème des crème et en plus de ça on est perdant dans l'affaire... On produit moins vite, moins "bien" et oui. Le client veut des trucs cool qui claque qui soit beau qui bouge qui ... Etc.

Vous faites du business dans le web alors vous pouvez oubliez toutes vos belles paroles de compatibilité a 100% avec tout ce qui existe. C'est un joli concept, qui vous fera couler si vous essayer de le suivre.

Écrire un site sémantique, respectueux des standards ne te prendra pas plus de temps, bien au contraire. Tu pourras ainsi le faire évoluer et lui ajouter une couche de clinquant/tape à l'oeil pour ton client "exigeant". Et tu seras gagnant lorsque ton client te demandera une nouveau "truc cool qui claque, qui soit beau, qui bouge" (ceci étant, le css suffit amplement pour faire ce que tu décris...).

Une dernière chose, on dit "rétrocompaTIbilité".

@galex-713 : Je suis à 200% avec tout ce que tu as écris.

Allez faire un tour du captcha de LionWiki. En le modifiant quelques peu, on peut arriver à en tirer un captcha qui tient la route et qui reste accessible.

gravatar
galex-713 a dit :

@jerry wham : Actuellement il n’y a aucun problème avec javascript, son captcha utilise CSS pour berner les bots. Le souci est le même, mais du coup ça rend tes reproches un peu caduques ^^" J’aime beaucoup ton analogie : retirer javascript, ça va pas rendre le Web inopérant, mais juste retirer des fonctionnalités de Contrôleur, qui rendent le tout plus confortable, mais sans être essentielles (normalement, après ya des services pour lesquels c’est essentiel : le chiffrement coté client de ZeroBin, l’écriture collaborative en temps réel d’Etherpad, etc.).
Après signaler que javascript pourrait causer un inconfort : évidemment c’est suffisant si l’inconfort dérive de l’absence de ce qui ne peut être fait qu’avec javascript (toute la couche Contrôleur) : typiquement le seul truc qui est fait avec javascript ici, c’est l’action des boutons de formatage et le « @répondre », et ça — ne pouvant être fait qu’en javascript — c’est une bonne utilisation.

Le captcha de LionWiki est très intéressant, comme ce que fait actuellement Timo mais avec des tests plus variés (ce que je m’efforce de conseiller depuis le début :p), on pourrait en tirer des idées : « De quelle couleur est le citrons ? », en effet — n’en déplaise aux grands promoteurs d’IA perfectionnées ici présents — mais si le captcha de l’Étudiant libre fonctionne, alors ça ça ne peut pas ne pas fonctionner.

Les commentaires sont fermés pour cet article