暇だったので画像スクレイピングやってみた。
細かい事は分からないけど
HTML読んでいい感じの文字列(URL成分)を探す
→抜き出す
→合成してURLにする
→画像を保存する
という流れ。普通のサイトなら、解説サイト通りにやれば成功する。
今回、抜き出しに失敗した。imgタグで絞るまでは良いけど、srcの中身が表示されないバグ?に遭遇。
何を保存したいかによるけど、今回はURLの順序が良かったので、最初の2ステップを省いて、順序通りfor文回して収集した。
またおまかんかと色々変えたけど、結局こういうゴリ押しが早かった。
我ながら機転が利く。褒めて。
つーか、結構致命的な弱点じゃない?こんな事あるんだね。
俺がサイト作る側なら仕掛けるな~と思いつつやってた。これに加えて文字列に乱数入れたら強い。けど画像専門サイトでそれやるとURLダブるから、ゴリ押せる時代が続きそう。
ーーー
枚数によるけど、一回コード書いちゃえば1~2行コピペで変えるだけだから、覚えてれば時間の節約になるね。よく言われてる事だけども。
結構こなれて来たんじゃねーの。中学生に戻ったらヒーローになれそう。
日曜プログラマーとか言って、やってることコピペだからな。
前にモノづくりがどうこう言ったけど、むしろ欲求不満。情報学部行けばよかったわ。
データベース・・・?また今度。