#14380

Note

Juste pour signaler que c’est "normal" que les liens récents de mon fil RSS sont publiés en double dans vos flux.
Une mise à jour du code a provoqué ça, ça n’est que temporaire.
http://lehollandaisvolant.net/?mode=links&id=20160128225738

#14379

Surfacephone.com fait enfler la rumeur autour du smartphone de Microsoft - Tech - Numerama

« Il y a plus de concept de Surface Phone que d’utilisateurs de Windows Phone »

Mouhaha !

En tout cas, l’image montre un téléphone très joli. Voilà ce que j’appelle quelque chose d’adapté au flat-design.

J’en ai déjà parlé, mais je trouve très moche d’avoir des téléphones rond avec des interfaces carrés : ça ne va pas ensemble, c’est déséquilibré, ça donne un sentiment de malaise.

Parmi les rares téléphones que je trouve à mon goût car carrés et adapté à une interface carrée, je peux donner le Nokia Lumia, l’Ubuntu Edge (s’il était sorti), l’iPhone 4 et le téléphone que j’ai actuellement, le Wiko Ridge.

Je n’ai rien contre le rond, mais les OS actuels ne suivent pas. Mettez moi un OS arrondi sur un Samsung et ça peut être joli. Mais ne mélangez pas tout, svp.
http://www.numerama.com/tech/141807-le-nom-de-domaine-surfacephone-com-enfle-la-rumeur-autour-du-telephone-de-microsoft.html

#14378

Première défaite d’un professionnel du go contre une intelligence artificielle

CF ça aussi : https://xkcd.com/1002/

Ce qui est intéressant c’est ça :
« 10/02/1996 aux échecs : première victoire d’une machine contre un humain »
« 21/11/2005 aux échecs : dernière victoire d’un humain contre la machine »

Le Go est également sur l’échelle d’XKCD.
http://www.lemonde.fr/pixels/article/2016/01/27/premiere-defaite-d-un-professionnel-du-go-contre-une-intelligence-artificielle_4854886_4408996.html

#14377

Note : PHP récupérer titre d’une page

On peut faire de plein de moyens différents, généralement on passe par des preg_grep(), mais on a aussi le problème de l’encodage qu’il faut gérer.

Voilà une solution que je teste pour le moment avec assez de succès :

$url = "http://example.com/";

$html_source = file_get_contents($url);
$dom_tree = new DOMDocument();
$dom_tree->loadHTML($html_source);
$titles = $dom_tree->getElementsByTagName('title');
$title = trim($titles->item(0)->nodeValue);

return $title;



Ça utilise bien-sûr les lib intégrées à PHP pour parser du HTML. Évidemment, ça retournera plein d’erreurs si le HTML n’est pas valide (99% des pages web), donc j’ajoute aussi ça :

libxml_use_internal_errors(true);
// dom parsing
libxml_clear_errors();


Ça va laisser les erreurs de code dans la lib de parsage. Libre à vous de les ignorer ou non, mais elles ne viendront plus s’afficher en HTML.
N’oubliez pas d’ajouter les gardes-fou habituels : URL ne répond pas, URL n’est pas du HTML, etc.

Autrement, voilà :
mon code de récupération d’une page Web en PHP (avec cURL)
le même code, mis à jour pour les pages qui sont Gzipé par défaut

cURL me permet de faire une requête qui envoie des headers complètes (avec UA et autres, pour passez un éventuel "UA-gate"), de suivre les redirections, d’accepter les cookies et d’autres.

Avec ça je fais à peu près le tour.

Sinon, pour faire 150 requêtes en parallèle, file_get_contents() ne vous servira pas. CURL permet de le faire : http://lehollandaisvolant.net/?d=2014/05/20/19/21/36-php-faire-plusieurs-requetes-http-simultanees-avec-curl
http://lehollandaisvolant.net/?mode=links&id=20160128180954