Je connais bien ces problemes de scraping de site et d'utilisation des données :
1/ HTTP ou HTTPS aucune différence. HTTPS sert à protéger le transfert des données et pas l'affichage. Donc pour le probleme de luckylucky, il peut utiliser cURL qui semble disponible sous .NET. Avec ca il pourra faire ce qu'il veut : connexion HTTPS, poster des formulaires, se logger ...
2/ Un site qui affiche des pages en HTTPS, n'affiche pas forcément des données sensibles.
3/ Scraper un site Web n'est pas forcément illégal :
> Déjà des tonnes de sites se laissent scraper et permettent l'utilisation de leurs données sans poser le moindre soucis (souvent il faut citer la source)
> L'utilisation des données récupérées dépend de la "Notion d'investissement" qui a servi à la BDD originale. Si l'investissement n'est pas suffisant, la BDD n'est pas protegable par le code la propriété intellectuelle. C'est également le cas de toutes les données qui concernent des faits.
> Un exemple de décision de justice : http://www.foruminternet.org/special...ghgh-2858.htmlL’article 7§1 de la directive n°96/9/CE du 11 mars 1996 relative aux bases de données reconnaît l’existence d’un droit sui generis au producteur de base de données lorsque « l’obtention, la vérification ou la présentation de ce contenu attestent un investissement substantiel du point de vue qualitatif ou quantitatif ». A cet égard, l’article L.341-1 CPI parle d’un investissement financier, matériel ou humain substantiel pour la constitution, la vérification ou la présentation du contenu de la base de données.
> Un tour de la situation : http://www.cejem.com/spip.php?article297
Donc ce n'est pas parce que quelqu'un demande comment scraper une page en HTTPS, ou HTTP, qu'il veut faire quelque chose d'illégal
-----