暇だったので画像スクレイピングやってみた。

細かい事は分からないけど

HTML読んでいい感じの文字列(URL成分)を探す

→抜き出す

→合成してURLにする

→画像を保存する

という流れ。普通のサイトなら、解説サイト通りにやれば成功する。

 

今回、抜き出しに失敗した。imgタグで絞るまでは良いけど、srcの中身が表示されないバグ?に遭遇。

何を保存したいかによるけど、今回はURLの順序が良かったので、最初の2ステップを省いて、順序通りfor文回して収集した。

 

またおまかんかと色々変えたけど、結局こういうゴリ押しが早かった。

我ながら機転が利く。褒めて。

 

 

つーか、結構致命的な弱点じゃない?こんな事あるんだね。

俺がサイト作る側なら仕掛けるな~と思いつつやってた。これに加えて文字列に乱数入れたら強い。けど画像専門サイトでそれやるとURLダブるから、ゴリ押せる時代が続きそう。

 

ーーー

枚数によるけど、一回コード書いちゃえば1~2行コピペで変えるだけだから、覚えてれば時間の節約になるね。よく言われてる事だけども。

結構こなれて来たんじゃねーの。中学生に戻ったらヒーローになれそう。

 

日曜プログラマーとか言って、やってることコピペだからな。

前にモノづくりがどうこう言ったけど、むしろ欲求不満。情報学部行けばよかったわ。

 

データベース・・・?また今度。