2012年最後の投稿
これまで,編集のしやすいので,使っていましたが,
これからは,Rとknitrでレポート作ることにしますので,このブログ(?)はやめます。
ご愛読ありがとうございました。
shape file 作る
地図をいろ塗りするときに,いつもひーひーいっているので,シェイプファイルを作ってRから描くようにしたい。
とおもって,まずはシェイプファイルを単独で作っておく。
create table jpnsec348s as select ST_Simplify(the_geom,0.005) from jpnsecwiod offset 0 limit 348; create table jpnsec354s as select ST_Simplify(the_geom,0.005) from jpnsecwiod offset 0 limit 354;
書き出す方法は,よくわからないので,
QGISからPostGISのデータベースをつないで,
該当シェープファイルをレイヤーから右クリック名前をつけて保存
twitter api ビールのつぶやきを収集する pythonコード
あまり長いと(時間がかかると?)
details: {"error":"Invalid query"}
が返ってくるので注意.
10x100=1000ツイートを1時間ごとにcronで種集すればとりあえずは良い感じ.
しばらく様子を見る.
#!/usr/bin/python # -*- coding: utf-8 -*- import twitter import json import codecs twitter_search = twitter.Twitter(domain="search.twitter.com") search_results = [] for page in range(1,11): search_results.append(twitter_search.search(q="ビール", rpp=100, page=page)) tweets = [r['text'] \ for result in search_results \ for r in result['results']] ttime = [r['created_at'] \ for result in search_results \ for r in result['results']] tuser = [r['from_user'] \ for result in search_results \ for r in result['results']] f = codecs.open("/home/kubota/twitter/tweet.txt","a","utf-8") for itweets in range(1, len(tweets)): f.write(ttime[itweets]) f.write('\n') f.write(tuser[itweets]) f.write('\n') f.write(tweets[itweets]) f.write('\n') f.close()
NetCommons
原稿投稿フォームから,重複を発見する
for(i in 1:nrow(genko)){ if(sum(genko[i,2]==genko[-i,2])){ cat(as.character(genko[i,2]),"\n") } }