APIとは?
「R」でツイッターのデータをスクレイピング
Rではウェブページのデータを引っ張ってくる(スクレイピング)するだけでなく、RからWEB APIを介してWEBサービスを利用することもできます。
今回は有名なAPI WEBサービスの1つであるTwitterのデータ取得します。これには「twitteR」というパッケージがとても便利です。
このパッケージは既に更新を停止していて、改良型の「retweet」というパッケージが推奨されているのですが、多分3.3じゃないと動かないっぽいし所々バグがあるので今回はとりあえずこっちを紹介します。
# パッケージのインストール install.packages("twittR") # パッケージの読み込み library(twittR)
Twitterのアカウントを取得していない方は、まずはアカウントを取得してください。
恐らく今時持ってない人はいないと思いますが一応→https://twitter.com/
そして、アカウントを取得したらTwitter Developersにアクセスし、サイトの下の部分にある「Manage my Apps」をクリックします。
Create an applicationが表示されるので、入力しろと書いてある部分に入力します。Websiteは自分のサイトのURLで構いません。もしないならこのサイトのURL(
http://www.tkstock.site/)でも問題ないです。
入力したら画面下のCreate your Twitter applicationをクリックしてアカウント確認のテストツイートをしたら設定完了です。
Rでツイッター分析をするのに必要なのは、以下の4つです。
Consumer Key (API Key)、
Consumer Secret (API Secret)、
Access Token、
Access Token Secret
ちなみに後半の、Access TokenとAccess Token Secretは、「Create my access token」をクリックすると作成してくれます。
これら4つの情報はいちいち確認するのがめんどくさいのでテキストかRのスクリプトなどにコピー保存しておくのが無難です。
conumerKey <- "自分のコンシューマーキー" consumerSecret <- "自分のconsumerSecret " accessToken <- "自分のアクセストークン" accessSecret <- "自分のAccess Token Secret" setup_twitter_oauth(consumerKey, consumerSecret, accessToken, accessSecret)
これで基本設定は終了で serchTwitter(‘検索ワードを入力’,n=抽出するツイート数)でツイッターの分析が可能になります。
関連記事:【2019年版】Python+Seleniumでツイッターに自動ログインする
関連記事:PythonでTwitter API を利用してBotを作る その①
コメント