図書館

レファレンスライブラリアンこそ我が本務(本当)

 俺はReferencerだ。真面目なReferencerだ。

 「レファレンス係長」を拝命している以上、職種を聞かれればレファレンスライブラリアンと答えるだろう。システム周りのことは…まあ、少人数の職場なのでそれなりに関わりがある、ということにしておいて欲しい図書館退屈男である。

 レファレンスには日々の修練が必要だ。だから国立国会図書館レファレンス協同データベース事業研修会(東京本館開催)に参加することになった。
 まず事前課題。レファレンス事例か調べ方マニュアルを作成して期限までにデータベースに登録、追って講師からコメントすると告げられた。どの事例を入力すればいいのか。悩みつつ事例を選び、入力。「回答プロセス」も忘れかけていたが、メモを頼りに記憶をたどり、入力。締め切りの数日後、講師からの「こういうレファレンスツールがある」とのコメントを頂いた。ああ、ツールさえ揃っていれば、と蔵書の不備を痛感するも、あっても使いこなせなければ意味が無いと悟る。

 そして研修会当日。まずは事業の概要から。現在、レファレンス事例については2万件以上が蓄積され、そのうち1万件が一般公開されているという。また、都道府県立クラスの図書館では、過去に蓄積された事例データの遡及入力を進めており、これがコアになっていると聞く。とはいえ、通常の事例入力は参加館1館あたり月1件以下とのことで、できるだけ入力をお願いしたいとのこと。
 
 主題別の登録数についても説明があり、郷土関係、歴史上の人物に関するレファレンスが多いためか歴史、社会科学の事例が多くなっていると推定されている。弊社の主題範囲である農業を含む産業分野の入力は少ない。データベースにはNDCベースの主題ごとのメニューが用意されているが、 農業(65) - 園芸(49) - 蚕糸業(2) - 畜産業(19) - 林業(18) - 水産業(12) (カッコ内はエントリ投稿時の一般公開件数)というのは少なくはないのか。衰退しているとはいえ蚕糸業に至ってはわずか2件だ。

 データベースそのものについては、図書館員にはレファレンスの情報源のほかサービスのPRの素材として、一般利用者には調べ物の情報源として、また研究者には図書館情報学その他の研究素材としての活用が考えられる。そのためにこれらの様々な利用者を考慮し、的確なキーワードの付与や克明な回答プロセスの入力など質の高いデータ入力の必要性について講師から説明があった。参加館が増えるにつれ、質の維持は困難になってゆくと思われるが、運営側には敷居を低くし「とりあえず事業に参加し、事例を入力してほしい」と言う意思が感じられた。

 講師各位(午前の講師の方とは以前関西館にてお付き合いいただいた。実は以前からの知り合いだったりするが、世間は狭い。)と昼食の後、午後は具体的にデータの品質を維持するための手法について、事前課題をベースに解説が進められた。特に印象に残ったのは、「『さすが』と手を打つ事例データ」とは何かと言う点。他者が「読みやすい」データであることはもちろん、

  • 丁寧な書誌データ
  • URLと確認年月日
  • 難読語に対する「よみがな」付与
  • 背景、状況が確認ができる記述

などがそのポイントとして挙げられた。この考え方は他のデータベースにも通じるところがある。

 後半はグループ別討議。主に専門図書館の方と同席になり、レファレンスサービスの改善について話し合う。

  • 実質1人で図書室を運営しているが、図書館界の情勢変化を把握し、自社の出版事業に反映させるために参加している。負担にはなるが、必要なことだと考えている。
  • 1人で運営していたときは、自分だけが過去の事例を把握していればいいので記録はおろそかになる。これが、スタッフの増員がありノウハウを共有、蓄積するためにこの事業に参加した。
  • 専門図書館の事例はNDLから見てもとても参考になる。「餅は餅屋」と言う言葉がぴったり。一般から見れば専門性は高く難しいと捕らえられるかもしれないが、図書館員としては有用なデータと言える。

など、それぞれの立場でのプロの司書のスピリッツを感じる発言も聞かれた。弊社はどうだろう。正直、半ば「様子見」で参加した部分もあるが、6門「産業」のデータの少なさを見ると、この分野の一翼を担う専門図書館として、事業への積極的な関与を考えたほうがよいだろう。

 その他のグループからは、一旦入力された事例データの経年による陳腐化の懸念とメンテナンスの必要性が挙げられた。時々刻々と変化するソースもある。それがインターネット上の情報であればなおさらだ。こまめに確認をするしかないのだろうが、入力件数が増えれば増えるほど困難になるのかもしれない。メンテナンスをし続けるデータベース。運営は困難だろうが、それが必要と言うのならやるしかない。できれば精神論ではなく効率的な方法を模索したいと考える。

 終了後は茶話会(アルコール抜きね)。こういう交流の機会もまた円滑な事業のバックボーンになるので無視できない。参加した方々と弊社のレファレンス事例と研究成果について語っていると「よく覚えていますね」とお褒めに預かる。少々おしゃべりが過ぎたようだが、レファレンス事例についてはともかく、研究成果と活用事例はいわば自社の大事な商品。これをあらゆる場で広報するのは、全社に課せられた重要なミッションと考えている。
 
 そして今、事後課題の「自館のレファレンスサービスの効率化についての方策の検討」などについて考察中。ターゲットはどこか、レファレンスとして受ける可能性のある問いは何か、そんなところから考えてみることにしよう。


大阪ストラット

 もう11月の足音が聞こえてきましたが、先日のセミナーのレポートなど。

 やってきました関西シリーズ第2回講演。たのしい大阪ゆかいな大阪。大阪駅から阪神百貨店方面の歩道橋を見上げ、「待っていれば『探偵!ナイトスクープ』のインタビューがあるかも。(レポーターは小枝希望)」と思いつつ、ホテルへ向かうため一旦地下街へ。早速梅田の地下街で迷いましたよ。ええ。
 
 講演までには時間があったので、ホテルで休憩、身支度を整えていざ会場へ。向かうは大阪商工会議所。着くのが早すぎてちょっと気まずかったかなと反省。
 会場は地下の会議室。ネットワーク、プロジェクタの接続を確認、担当の委員さんとちょっとお茶した後、再び会場へ。
 講師紹介、簡単な自己紹介の後、90分一本勝負延長なしのセミナー開始。スライドの説明は概ね60分で終了、あとは各種デモ。この講演に間に合わせた新着資料タイトルのタグクラウド(高機能型プロトタイプ)も何とか紹介。しかし時間を読み間違えてTimeOver。質疑応答が十分に出来なかったが残念でした。伝えたいことは山のようにあるのですが、もっと吟味して紹介することが必要と痛感。
 セミナー後は事務局や委員の皆様と近くのお店で歓談。刺身が厚切りでおいしかったです。さすが大阪。遅くまでお付き合いいただき、ありがとうございました。
 翌日はのんびり駅周辺をぶらぶらしつつ、立呑みの串焼屋さんに心惹かれつつ新大阪へ。お土産にグリコのショップ「ぐりこ・や」で「ポッキーのケーキ」(でかい)などを買い、慌てて新幹線で帰京。

 数日後、事後のアンケートの回答を取りまとめたものを送っていただきました。
正式な復命書としては、

当所におけるRSS活用とその事例についてデモを交えて講演を行った。事後のアンケートによると、「自館でのサービスの参考にできる内容」「これからのOPACやWebを使った図書館サービスを考える上で刺激になった」など、当所の事業の紹介のみならず、図書館におけるRSSとその応用の可能性についての理解を広めるきっかけとなったものと思料。

などと書くところですが、厳しい指摘も頂きました。
「関西人だから遠慮なしですよ」とのフォローも頂きましたが、曰く、

・話すスピードをもう少しゆっくりして
すみません、いつもマシンガントークでご迷惑をおかけしております。ゆっくりしゃべる練習は常しているつもりですが、熱くなるとテンポが上がってしまいます。反省。
・内容が盛りだくさんで高度で消化不良
確かに情報量は多かったかもしれません。一方で、「情報が多く内容も充実」というご意見もあるのですが、ポイントは絞ったほうがよさそうですね。
・時間をきっちり管理してほしい。
はい、まったくご指摘の通りです。時は金なり。時間は守りたいです。

などです。

 アンケート中で頂いた質問等には別途お答えしてお送りしたところ、先方のサイトに報告と合わせて掲載していただけました。ありがとうございました。
 確かに、もうちょっと時間をとって、参加された方のご意見などを頂くべきだったと反省しています。

 タグクラウドについては、

  • 今のタイトルからの切り出しだけではあまり意味が無いように思う。件名やシソーラスも活用できればよいインターフェースになるのではないか。
  • 今の逆に、件数の少ないキーワードを目立たせてはどうか。「農業」「技術」などありふれた語句よりは、あまり見ないキーワードを正面に立てたほうが意外性があってよいかも。

 とのご意見を頂きました。今後のシステム改良の参考とさせていただきます。

 とにかく、発表の場を与えていただいた専門図書館関西地区協議会事務局並びに関係各位に感謝します。


全国ツアーも後2つ、と思っていたら第2次追加公演(名古屋)が設定されました。10/29現在の講演等予定は以下の通りです。

 残りの一つは来年3月、名古屋大学が会場です。詳細が決まりましたら然るべきところから公開される予定です。東海地区の皆様、よろしくお願いします。

「木更津キャッツアイ」みたいに、「ワールドツアー」と銘打ってみたいところですが、書いてしまうと本当に依頼が来そうなのでやめておきます。


生まれたところを遠く離れて

 どこの町でも聞かせてやるさ
 枯れた技術とひきかえの図書館屋のRock&Roll

 どこの町でもOPAC2.0。ということで明日は専図協関西地区協議会からのお招きにより大阪講演です。セミナーは20:30まででして、この時間だとTXでつくばにはもう帰れないのでお泊りです。(守谷までなら帰れます。念のため。)

 今回のリクエストは、

実際にサービスを提供する際、どれくらいの技術力で、どのようにすれば実現できるのかについても触れて欲しい

 とのこと。よく考えてみると、これが難しいのです。「シスアド初級クラスならOK」みたいに資格などで明確に区切れるものでもないですし。
 当所の場合、少々のことならPerlなどそのあたりに転がっているツールや作例を見よう見まねで組み立てて、何とかサービスに仕立てています。そういう意味ではPlaggerはgoodなツールです。で、規模が大きくなったり後々のメンテナンスが必要と見込まれる場合は、うまく各種システム更新のタイミングに併せて仕様に盛り込み、あとはベンダに指示しつつ一緒に構築、運用となります。
 RSS系のサービスも同様で、始めはMovableTypePukiWikiなど手元でもできる環境で出力の試験をしていましたが、「使えそうだ」という確信と共に仕様策定、配信システムを別途構築、さらにOPACへの組み込みなどを行っています。もちろん、この場合には「やりたいことを仕様書にしてきちんとベンダに提示する」能力が問われるわけですが。(これが出来ないばっかりに初期設計に失敗したこともあります。)

 今回はアプリケーション(手入力含む)によるRSS生成と出力からその応用まで前広にご紹介する予定ですが、どのあたりまでテクニカルな話題をしてもかまわないのか、いつも悩むところです。分かりきった話でも退屈でしょうし、かといって自分のレベルをはるかに超えた話題を聞かされてもどうなのかと。いつも場の雰囲気を読みつつ綱渡りです。

 でも、少々の好奇心と、OSを(論理的に)破壊するくらいの実験をしてもかまわないPCと、わずかな時間とネタになる参考書があれば、そこそこのことはできるし学べるのではないかとは思うのです。あと「詳しい人」が周りにいればなおよしです。(内輪なのであえて名は上げませんが、いつもお世話になっています。ありがとう。)

 結果は24時間後には明らかになっているでしょう。ああ。


10月…

 AJAXでも勉強しようと思い書店に入るも、出てくるときに手にしていた袋にはガンダムエース11月号増刊 お笑い特集号が入っていたのはなぜなのか。いや、本当はAJAX Hacksとか実践AJAXとか欲しかったのですが誰も信じませんかそうですか。

 10月になりました。例年なら職場では人事異動があったりしてばたばたなのですが、今年は職員の人事異動はなく、平穏無事…ではなく、レファレンス協同データベース研修会の事前課題に取り組んだり10/11の大阪講演のスライドを作ったりと図書館退屈男的には泥縄な日々です。あげくに http://a9.com/ にアクセスするとユーザーインターフェースがすっかり様変わりしていて、せっかく作った弊社OPAC導入マニュアルも書き直しを強いられる羽目に。詳しくはInternet Watchの記事あたりが参考になると思います。

 そして、文献複写など仕事の補佐をしてくれていた非常勤職員さんが9月いっぱいでご退職。後任は募集中で、「われわれの館」にも掲示しておりますので募集要項を隅々までよく見て納得の上でご応募ください。「このブログを見た」と言っても何の効力もありませんのでご注意ください。

 そういえばGoogleツールバーのボタンギャラリー。9/20のエントリの通り、

 1はGoogleへの申請が必要。動作確認は済んでいるのですみやかに必要事項を記入、送信。「数日で終わるよ」と英語の自動応答メールが返ってきたが、日本語で記入しても大丈夫だったのだろうか。

 と送ったきりで掲載される気配なし。先のメールには、

We'll review it over the next few days, and if it's accepted, you should see it up on our custom button site within a few weeks.

  とあったので、今は"a few weeks"のあたりであることを願いたいです。ちなみにエントリしたカテゴリは「リファレンス」です。

 WarewareGoogleツールバー4。キーワードを検索窓に入力すると履歴と候補を示してくれます。

ちょっと便利なのですが、「われわれ」と打つと左図のように「我々は一人の英雄を失った」だとか気合の入る演説の候補を示してくれるのですが、それは図書館退屈男のPCだけですかそうですか。


 ただの近況報告なエントリになってしまいました。次回はRSS→Plagger→HyperEstraierあたりのネタということで一つご勘弁を。


キンモクセイの香りとa9.com、そしてGoogleツールバー

 職場の庭に植えてあるキンモクセイが香り始めました。館内でも何気なく香ってきます。秋の気配を感じますね。
 そんな今日は9/11付けエントリの続き。


(前回のあらすじ)

 京都駅でのHack in マクドの成果であるGoogleツールバー4用OPAC検索プラグイン。さりげなく公開はしているものの、課会で「『Google ボタン ギャラリー』に追加してよいか」と諮ったが、とてもマズそうな空気が机上を支配する。

 とりあえず、「またご相談させていただきます」としてお茶を濁す図書館退屈男。

 どうする図書館退屈男。明日の「サラリーマンNEO」は敵か味方か。


 で、今シーズンラストの「サラリーマンNEO」を見たわけですが。「Re:」のオチはどうなのかと。あれで彼の過去は消え去るのか。ELLEGARDENの「Space Sonic」買っちゃったよ。「コントを読む」もイイ。毎回でも見たい。でもセルフパロディは禁じ手のような。
 …いや、検索エンジンから「サラリーマンNEO 動画」で検索してやってくる人々のためにも、ネタバレは避けておこう。動画ならYouTubeが熱いと極個人的に思う。ネコ動画もあるし。Welcome。

 そうじゃない。Googleツールバー用プラグイン公開について上の了解を取る話だ。

 一時撤退を余儀なくされたが、他の案件とまとめて図入りの資料で対課長説明を試みる。コンセプトは「うちのデータベースを『どこからでも』使えるようにする。そして知ってもらう。」これで行こう。

 提出案件は3つ。

  1. Google ボタン ギャラリーへの弊社OPACの登録
  2. a9.com への弊社OPACの登録
  3. Google Scholarと弊社内リンクリゾルバとのリンク

 常日頃、内外から「広報不足」「もっと宣伝しろ」と言われる日々。だが、専門の研究者はともかく、多くの利用者の現状はGoogleなどから「たまたま」弊社サイトのサービスを知って利用に結びつく例が多いように思う。
 知名度を上げ、これを解決するために、他のサービスとリンクし「a9でも検索できる」「Google ボタンギャラリーにも登録されている」ことで新規利用者の開拓とサイトへの誘導を図る。これが1と2。3はリンクリゾルバのライセンス上、社内向けサービスとなるが「使い慣れた検索システムから原報入手/複写依頼をワンストップで行う」ためには必須。

 ただリンクされるのを待っているだけではだめだ。ここは打って出ないといけない。そして同業他社のサービスとの差別化を図る。

 課長、課長補佐を交えての30分の攻防。「それはメリットがある」として無事クリア。次は、当課事業担当の上役に諮ることに。ややもすれば当課の事業は「上に諮りもせずよくわからん技術を使って勝手に動いている」と言われがち。うちは公安9課でも特車2課第2小隊でもないので筋は通すことには同意。意思決定はプロセスも大事。

 翌日(つまり今日)、課長補佐と上役の個室で資料説明。「それはどんどんやるべき」と高評価。ただし、「いわば『裏口』から来るお客さんになるわけだ。いつでも出せるよう記録はちゃんと取ってね。」との指摘。アクセスログはちゃんと確保し集計、分析しておけということか。こんなこともあろうかと、RSS系のアクセスは別に集計できるよう仕掛けがしてある。

 GOサインは出た。設定開始だ。

 1はGoogleへの申請が必要。動作確認は済んでいるのですみやかに必要事項を記入、送信。「数日で終わるよ」と英語の自動応答メールが返ってきたが、日本語で記入しても大丈夫だったのだろうか。

 続いて2。a9.comの登録フォームにOpenSearch DescriptionファイルのURLを入力すると、動作確認と文法が自動的にチェックされる。これも事前に確認済み。問題なし。そしてSubmit。本番環境への反映はすぐに行われたようだ。
 検索フォームの[More Choices..]の[Over 300 more...]から"library"をキーワードにして絞り込むと、2ページ目の最後に弊社OPACが表示される。ぜひ"+ add this column"してご利用いただきたい。ただし、ユーザ登録(無料)していないとデフォルトのデータベースのほかは1つしかデータベースを登録できない。
 勢いで簡単なマニュアルも作成(PDF)。図書館総合展でも配れるかな。使ってもらえればよいのだが。

 3の件については、Google Scholarの「図書館向けサポート」に「詳細については、リンク リゾルバのベンダーにお問い合わせください。」とあるので、素直に設定用XMLファイルの作成をベンダに依頼。しばらくかかりそうだ。

 OPACだけでなく、弊社の主力商品である文献データベース群を同様に様々なインターフェースから検索できるようにするのが最終目的であるが、この試みでサンプルデータと経験は蓄積できるだろう。

 物理的に一箇所に固定されたインターフェースのみではなく、あらゆるところにその影があり、様々な、使い慣れたインターフェースから検索できるデータベース。我々の進撃は着々と進む。


 図書館総合展、今年も出展が決定しました。今年は、会場中央の通路、一ブロック目の奥側の角地でお待ちしております。出展者プレゼンテーションも11/21にありますが、夕方17時ごろのセッションなので人が集まるかどうか不安です。詳細は追ってお知らせします。


「それPla」と言われて [2]

 実現したい機能は多々ありますが、まず基本から。

 今日は勇気を出してソースも載せて見ました。先達の方々には笑止千万かもしれませんが、ご助言などいただければ幸いです。  

 まず、今回RSS化を試みた図書館の新着図書案内ページでの新着図書の記載は、HTMLでは以下のように記述されている。

<img alt="New" src="/opac-image/new.gif" align="right" />
<td></td><a href="(詳細情報、排架場所表示のURL)">書名 / 著者

 これを以下のCustomFeed-Config用YAML設定ファイルで

  • 詳細情報、排架場所表示のURL : link要素へ
  • 書名 / 著者 : title要素へ
  • - 出版地 : 出版社, 発行年 -(シリーズ名) : decsription要素へ

  と3つに切り分ける。

# /usr/local/share/Plagger/assets/plugins/CustomFeed-Config/lib.yaml
# 
author: toshokan taikutsu otoko
match: http://opac\.lib\.prikuma\.ac\.jp/opac-new/book/new.html
extract: <img alt="New" src="/opac-image/new.gif" align="right" /><td>
     </td><a href="(.*?)">(.*?)</a>.*?<br /> extract_capture: link title body extract_after_hook: $data->{link} = "http://opac\.lib\.prikuma\.ac\.jp" . $data->{link}

 match:で記述されている http://opac.lib.prikuma.ac.jp/opac-new/book/new.html が実際に新着情報が掲載されているURLで、extract: でこの内容を正規表現で切り出している。(.*?)が順に、extract_capture: で指定したlink, title, bodyの順に格納される。
 さらに、ここでのURLの記述にはサーバ名が含まれていないため、extract_after_hook: で $data->{link} に補記している。extract_after_hook: ではperl互換の文字列操作が可能であるため、文字列の追加・削除・置換等も可能である。
 このファイルは CustomFeed-Config から参照できるよう、assetsディレクトリの下、plugins/CustomFeed-Config あたりで保存する。

 次は実際にサーバにアクセスしデータを取得、RSSに変換する命令を記述した config.yaml である。
 plagger -c config.yaml として実行すると、

  1. module: Subscription::Config : 指定したURLのファイルを取得
  2. module: CustomFeed::Config : 先のlib.yamlに従い、必要なデータを取得
  3. module: SmartFeed : feedのタイトル設定
  4. module: Publish::Feed : RSS出力

 の順に処理が行われ、/var/www/html/kuma.xml として保存される。
 もちろん、Publish::Gmailなどを利用すればメールでの送信も可能である。

#
# config.yaml
#
global:
  assets_path: /usr/local/share/Plagger/assets
  timezone: Asia/Tokyo
  log:
    level: debug

plugins:
  - module: Subscription::Config
    config:
      feed:
        - http://opac.lib.prikuma.ac.jp/opac-new/book/new.html

  - module: CustomFeed::Config

  - module: Filter::Rule
    rule:
      module: Deduped

  - module: SmartFeed
    rule:
      module: Fresh
      mtime:
        path: /tmp/foo.tmp
        autoupdate: 1
    config:
      title: Pri-Kuma Library New Books

#  - module: Filter::EntryFullText

  - module: Publish::Feed
    config:
      dir: /var/www/html/
      format: RSS
      filename: kuma.xml

 Filter::EntryFullText ではデータ中のリンク先のファイルを取得してくれるのだが、これが通常のテキストに変換されとdescription要素に収められる。できれば <content:encoded> を使ってHTMLのままCDATAとして入れ込み詳細な情報を配信したいところではあるが、「新着を知らせる」用途であれば  Filter::EntryFullText でファイルを取得しなくてもこのページのURLを併せて配信しているので十分であろう。詳細な書誌情報をも配信、となるとこのデータが必要となる。別途プラグインとして切り出す手段を考えるべきだろうか。

 国内の図書館システムベンダは星の数ほどあるわけではなく、それなりの数にまとまっている。当然、システムが同一であれば(特別にカスタマイズをしていない限り)検索その他のインターフェースも同一であるため、この例であれば lib.xml を新着情報を出力可能な図書館システムの数だけ作成すれば、とりあえず新着情報をRSSで提供するサービスが可能となるだろう。今回の例も、実はいくつかの図書館で共通のフォーマットが使われている。

 ここで Plagger を利用したのは、出力についてRSSだけでなく電子メール等での送信などをサポートできること、また今回は一つのみであったが複数のFeed(学部図書館や分野毎に新着情報を出力している館もある)をまとめるなど、利用者のニーズに合わせて柔軟に対応可能な入出力機能を有している点にある。また、各図書館システムに特有の出力形態にあわせて個別に設定ファイルを作成すれば、RSSフィード作成など残りの作業はPlagger本体とそのモジュール群に任せることができ、開発にかかる労力も低減されると思われる。
 
 あとは「図書館の新着情報を(時にパーソナライズして)RSS等で配信」というサービススタイルがどこまで支持を集めるか、というところだろう。

 これがNature, Science, Cell等といった学術雑誌であれば、すでに各出版社から配信されているRSSフィードを一本にして取得、(是非はともかく)Plaggerを使い著者名等でフィルタしたり自館で利用しているSFXなどのリンクリゾルバへのリンクを加え、論文の全文アクセスや所在情報検索、複写依頼等へのリンクへとサービスを連携させてゆくこともできるだろう。

 なんとか実装したいなあ。


「それPla」と言われて [1]

 8月の大図研大会のあたりから話題に出ていた

今ある図書館の新着案内からRSSを生成するスクリプトを考えている。これらをゲリラ的に提供した後で、「便利だ」ということを広め、そして必要性を訴えるのでよいのでは。

 について、ゲリラ的な戦術が適切かどうかはともかく、ツールの汎用化に向けた自分なりのアプローチとして、Plaggerを使えないかと考えるだけでとどまっていたが、ようやく手を付けてみた。
 Plaggerは、Perlモジュール群からなるツールで、

HTMLやRSSを何かしら切ったり張ったり加工して、gmailへの送信やRSSその他様々な形式で出力するツール

 と言える。「人力検索はてな」の最近の質問、「Plaggerって何ですか?」 に事例や上手な回答が出ているのでご参照ください。

 これで普通の図書館Webサイトで提供されている新着情報をRSSに変えてしまおうと言う目論見。既存のツールはありがたく使おう。
 さらにid:toshi123さんのはてなダイアリー「Muibrog」のエントリ「いまさら聞けない? 初心者向けPlagger設定覚え書き その1」が後押ししてくれた。感謝です。とても参考になりました。

 処理の流れは以下の通り。

  1. 新着情報ページ上の書名、リンクなどを抽出
  2. リンク先の詳細情報を取得、HTMLタグ削除
  3. これらの情報を一件1itemのRSSとして出力

 まずは某図書館の新着図書案内ページのソースを解析。テーブルタグを使い、書名等はセルで区切られて入力されている。そこで、「いまさら聞けない? 初心者向けPlagger設定覚え書き その2」で紹介されていた CustomFeed::Config を使い、正規表現を駆使して書名、リンク先などを抽出するyamlを記述。
 
 次に本体となる config.yaml で以下の処理を行うよう設定。

  1. 指定したURLのファイルを取得、先の設定の通りフィルタして書名等を抽出
  2. 重複データを削除
  3. リンク先のファイルを取得(この場合資料の詳細表示)
  4. 取得したファイルからHTMLタグを除去
  5. RSS2.0でファイルに出力

 そして実行。 plagger -c ./config.yaml

 …おお、ちゃんとRSS2.0で出力してくれた。すごいぞPlagger。
 当座の問題点は、

  • RSSフィード自体のtitle、linkを設定できない
  • 取得した資料の詳細表示が、単にHTMLタグを削っただけで見難いので、整形して出力したい

 というところ。とりあえずPlaggerでいけそうなことが分かったので、この線で進みたい。
実際のyamlファイルは…もうちょっと心が落ち着いたら公開します。今しばらくお待ちを。願わくば、腕に覚えのあるシステムライブラリアン各位の協力を仰ぎたいところ。


 後半に入った自称「On the road 2006 "Road to the OPAC2.0"」。好評だったのかどうなのか、図書館総合展での公演のほか、追加公演が決定しました。11月末に名古屋です。詳細は追って広報されると思います。


Googleツールバー4 でOPACを検索

 Googleツールバー4(Internet Explorer6以降用)の新機能として、好きな検索フォームを追加できるようになった話は前回のエントリの通り。
http://www.google.com/tools/toolbar/buttons/intl/ja/apis/started.html
に、http://slashdot.org/ を登録する手順が紹介されています。

(Googleツールバーは http://toolbar.google.com/T4/intl/ja/index.html からインストールできます。導入は自己責任でお願いします。)

 自動登録を試してみた。Googleツールバー4がインストールされている状態で、追加した検索フォームの上で 右クリック→[カスタム検索を実行] を押すと[カスタム ボタン生成ツール]ダイアログが立ち上がり、タイトルと説明の編集画面が開く。favicon.ico も取り込まれているところが心憎い。
 これだけの作業でカスタム検索用のボタンが追加された。わあ簡単。ツールバーの入力フォームに検索語を入力、[G▼]ボタンをクリックしてさっき追加した検索フォームを指定。そして[実行]ボタンを押す。

 そこで返されるのは無常にも「ヒット件数0件でした。」の文字。関連語を表示しろよとかNACSIS WebCATへのリンクぐらい張れ、というのは最近の流行だが、出てくるはずの語を入れてもヒットしないのはおかしい。

 再び入力フォームの[▼]をクリックして、[管理...]を選択、さっき追加したカスタムボタンを選択して[編集]を押す。さらに[詳細エディタを使用する]を選択する。
 Webブラウザ上で編集画面が立ち上がる。
 内容はこんな感じ。

<?xml version="1.0"?>
<custombuttons xmlns="http://toolbar.google.com/custombuttons/">
  <button>
    <search>http://opac1.cc.affrc.go.jp/alis/summary.csp?TL={query}&amp;TLopt=AND&amp;AU=&amp;TLKopt=&amp;TLopt=AND&amp;AUKopt=&amp;AUopt=AND&amp;PUBDT=&amp;ISBN=&amp;ISSN=&amp;DB=all&amp;kikan=1&amp;Srt=TL&amp;SELECTgroup=0&amp;RANGE=50&amp;SELECTkikan=0&amp;reqcharset=SJIS&amp;LANG=JPN&amp;CHAR=SJIS</search>
    <site>http://library.affrc.go.jp/</site>
    <title>library.affrc.go.jp</title>
    <description>農林水産関係試験研究機関 総合目録</description>
    <icon>
(ここはfavicon.icoがエンコードされているので略)
    </icon>
  </button>
</custombuttons>

 検索語は{query}で、&は&amp;に置き換え、その他の内容は[カスタム検索を実行]で取り込んだページの<form>タグの内容であることが分かる。
 とりあえず使用する文字コード(ここではreqcharset,CHAR)をUTF-8に変更して保存。今度は正常に検索結果が返ってきた。
 さらに、範囲指定してから右クリック→[他の検索タイプ]→[(作成した検索フォーム)]で、指定の検索システムに範囲指定した単語を送信して検索することも可能に。Good。

 説明等も含めてもうちょっと変更。

    <site>http://library.affrc.go.jp/</site>
    <title>農林水産関係試験研究機関総合目録</title>
    <description>農林水産関係試験研究機関総合目録を書名から検索します</description>

 こんな感じに。これで、ボタンの上にMouseOverするとdescriptionの内容が表示される。

 次に、「API ドキュメント」 を読んで、「サイトからボタンにリンクを貼る」を試す。要は先のXMLファイルをリモートに置き、googleサイトから引っ張ってもらうようだ。
 リンクとしては以下のような構文。
http://toolbar.google.com/buttons/add?url=http://library.affrc.go.jp/api/alis4googletoolbar.xml
↑このリンクをクリックすると、ツールバーに「農林水産関係試験研究機関総合目録」が登録されます。

 「API ドキュメント」を読むと、GETだけでなくクエリを POST として送信する場合でも使用できそうなので、たいていのOPACには適用可能ではないかと。もうちょっとhackし甲斐がありそうです。


 こうして作ったリンク。さりげなく利用はできますが、課会で「『Google ボタン ギャラリー』に追加してよいか」と図ったところ幹部の沈黙が。マズイ。何かとてもマズそうな空気だ。
 とりあえず、「またご相談させていただきます」として逃げたが、余計な議論を呼びそうだ。

 どうする図書館退屈男。明日の「サラリーマンNEO」でも見て考えることにしよう。


まだ京都。

 窓の外は土砂降り。ホテルのシングルルーム。こんな夜はI miss you。

 とりあえず隣のショッピングセンターで夕食。そして明日に備えて傘を買う。

 翌朝。晴れていた。ホテルの送迎バスで外人に混ざって京都駅へ。次の予定まで時間があったので土産物の目星を付けつつ駅構内を歩く。そこへ現れるマクドナルドJR京都アスティ店。通路沿いに電源付の座席。無線LANも届いている。そしてコーラ(S)100円を買ってネットに接続している自分がいる。
 IEを起動するとGoogleツールバーが4にバージョンアップされたとダイアログが知らせている。何が違うのか。…フムン、新機能として好きな検索フォームを追加できるようになったようだ。http://www.google.com/tools/toolbar/buttons/intl/ja/apis/started.html に、http://slashdot.org/ の検索フォームを登録する手順が紹介されていた。心ときめく血がうずく。こいつを試せと天が言う。これが図書館退屈男の本領だ。まずは弊社OPACでテスト。…検索文字が化ける。どうも文字コードをUTF-8で処理しているようだ。GETのパラメータを変えてみるか。なぜ朝からマックでXMLで書かれたconfigをhackしているのか。自分でもわからない。(この件は別エントリで詳解します。)

 そこへ現実に引き戻すメールが。隣の研究所で不幸があったらしい。同じ図書館畑の女性。skypeで社と連絡を取るものの、向こうでも情報が届かず混乱している模様。京都からではできることもないので、念のため携帯の番号等を伝えて離席。

 近鉄電車で移動。知人を失う、というのは心に堪える。理由が分からないだけに涙も出る。周囲を置いていくことに何のメリットがあるのか。
 30分ほどで目的の駅へ着。気を取り直してタクシーで現場へ向かう。今日は奈良県にほど近いここ某所で打ち合わせだ。分館職員たるもの、近くまで来たら中央館に挨拶に出向くのは当然の行為といえよう(大嘘。それにここは関西館だ)。

 知人に出迎えていただき、そのまま近くで会食。弊社の近くにはこんなしゃれたレストランはない。うらやましい。今度探そう。

 打ち合わせ。ネタはレファレンス協同データベース。実は弊社は1件しか入力していないが、それでもインパクトがあった様だ。いろいろと意見交換をしているうちに、「レファレンスに回答するのは最後には人。その人同士をつなげるハブとしてこのデータベースを機能させたい。」という発言が出た。これは納得。専門図書館ではワンパーソンな図書館が多いせいか、人のネットワーク作りを重視してセミナー等を開く。ただ、他の館種のライブラリアンと人脈があるか、というとそれなりの努力やなにやらが必要になってくる。レファレンスは実は「人」に頼る部分もある。話を聞くと、現在のユーザは1000人ぐらいだが、コアメンバーはもっと少ないとのこと。今はコミュニティが動くだけの母体がないが、少しずつ育ててゆきたい、とのことだった。話が弾み時間を超過してしまい先方には迷惑をかけたが、よい勉強をさせていただいた。

 次はデジタルアーカイブな話題。例えば弊社のデータをアーカイブさせてほしいといったらどうする? 弊社はデータのバックアップを物理的に遠方には置いていないので、バックアップとしては協力できる。また、そちらの検索用APIを公開していただき、こちらからも利用させてもらえればなおよし。などなど話は広がる。
 昨日COUNTERがらみの話題も。複数個所に学術論文がアーカイブされた場合、アクセス件数ベースでの評価をどのようにするのか、また同一性をどのように保障するのか、だれかがDOIのような識別子を振ってくれるのか、などが議論になった。
 
 何にしても、この手の話は楽しく尽きないが時間が押してくる。再訪を約束して京都を離れる。


 つくばへ帰還。TX車内でいつものようにポケットの鍵を確認…あれ、ない。スーツ、カバン、持ち物は確認したがどこにもない。やむなく連れ合いに迎えを頼み、家にはなんとか帰着。

 翌日。ホテルに電話。最初は「そのようなものは届いておりませんが…」との回答。ますます焦る。念押しをして電話を切り、10分後に発見されたとの報が。着払いで送ってもらい、今は手元に。ありがとうホリデイイン京都。


行ってきたよ京都。

  JTB時刻表できっちり車両種別を確認し、博多行き500系のぞみで京都まで。寝過ごしたらいきなり九州かもという軽い恐怖。

 そして到着した京都大学。事前に地図をプリントアウトし忘れ、迷うこと10分。ようやく目的の数理解析研究所115教室に入ると、ちょうとお昼が終わったような雰囲気。でもスクリーンに映るUNIXなコンソール。そして飛び交う「TeXだとこの項目が云々」「いやこうすればOK」…TeX。TeXだよ。確かに物理学系の後輩が「数式書くならTeX最強」といっていたことを思い出す。そして自分だけ上下スーツ。暑い。場違い感全開で今日の研究集会の代表者の戸瀬さん、行木さんにご挨拶。それでも見知った方から声をかけていただく。ありがたい。図書館の方々も見えていたようだ。プログラムと発表資料はこのページに掲載されているのでどうぞ

 午後一番の発表が自分。つかみで「自分のPerlの知識は赤ラクダ本で止まってます。どうかお手柔らかに。」ちょっと受けた(と思う)。うれしい。
 さすがに回数をこなすと慣れてくるのが自分でもわかる。で、質疑応答。「アクセス回数は把握されていますか?」焦る。細かい数字は持っていない。「詳細なデータを今日は持っていませんが、ユーザ登録数一万人強云々」と苦しい回答。で、アクセス回数の件は後に引きずる。

 続いて、日本動物学会事務局の永井さんから発表。電子ジャーナル時代に対応したオープンアクセスや機関リポジトリの扱いを学会というコミュニティの視点で語る。
 そこで新しい評価基準として、COUNTER1)の話題も出た。従来、雑誌の評価はインパクトファクター(IF)でされていたが、

  • IFは分母(掲載論文数)に依拠している。
  • IFは分野間の比較は出来ない
  • IFを合計してはいけない
  • IFは常に掲載論文数との抱き合わせで著すべきである
  • IFはジャーナルのパフォーマンス。掲載論文のパフォーマンスを即座には示さない。

 ということでジャーナルはともかく個々の論文の評価にはちょっと問題がある。

 そこで電子ジャーナルやデータベースの利用統計の国際標準であるCOUNTERで個々の論文へのアクセス数を把握し、今後はこれが評価の主流になるのでは、というもの。

 ここではっと気づいた。弊社の全文データベースには当社関連だけでなく大学や学協会誌など、他社からいわばお預かりしているデータもある。ところが、個々の論文単位ではアクセス数をカウントしていない。仮にアクセス数での評価となったら、電子ジャーナル本体と機関リポジトリと弊社のような主題別リポジトリがそれぞれCOUNTER準拠のログを出し、その総和でないと正しい数値とはいえないのではないか。また、そのようなログも出せないようなシステムでは、リポジトリする側のインセンティブも低くなるのではないか。北大の機関リポジトリHUSCAPでは、リポジトリしてもらった論文のアクセス回数を執筆者に渡し、データとして喜ばれていると聞く。ちなみに、COUNTER準拠を名乗るには定期的な監査もあるという。なんだかISO9000認証みたいな話で厳しそうだ。戻ったらCOUNTERについて調べてみることにしよう。またまた宿題だ。

 そして講演終了後、行木さんからペーパーが手渡された。「執筆依頼書」。…宿題の回答用紙、ということか。締め切りは12/15。

 午後の京都は雨。傘がない。行かなくちゃ。とりあえずホテル。確か川沿い。リバーサイド。


1) COUNTERについては、以下の情報が詳しい。メモ。