図書館

IBM OmniFind Yahoo! Editionを動かしてみた(2)

 昨日に引き続きIBM OmniFind Yahoo! Edition(以下「OmniFind」と略)。

 朝、出勤してテスト用のPCを見るとログイン画面が待っていた。早速ログイン。OmniFind上でログをチェックするも、不具合のあった形跡はなし。不意のWindowsUpdateでもあったのか。気を取り直して再起動。

 マニュアルによると、「CJKな国の人はインデックスにn-gramも使えるよ」とある。インデックスのサイズが大きくなるような気がしたが、これで再構築することにした。

 約4,800件のファイルを約1時間で収集、インデックス完了。この時点でインデックのサイズは37MB。ちなみに、n-gramなしだと17MB。日本語、特にひらがなの検索にはめっぽう弱いので、素直にn-gramで作ったほうがよいのかも。あと、同義語辞書(自分で設定できる。大量登録の際はXMLで)だけではなくて、まっとうな専門用語辞書を使わせて欲しい。

 そのほか検索機能の調整。[Manage Search Experience]-[Adjust Ranking]から、以下の3項目を優先して結果表示をするか否かを調整できる。

  • 更新日
  • ファイルパスの深さ(例:www.hogehoge.go.jp/ja/rss/boge.html よりhttp//www.hogehoge.go.jp/が優先される)
  • 被リンク数の多さ

 どれも重要な項目で、譲歩してもファイルパス以外は優先させたほうがいい場合が多いような気もするがどうだろう。

 検索画面、結果表示画面も簡単だが編集できる。検索画面は、

  • 背景色
  • ロゴ(左右に設定できる。デフォルトは左がIBM、右がYahoo!)
  • コピーライト

などの表示/非表示を、結果表示画面についてはタイトル、URL、サマリなどの表示/非表示、文字色、背景色を設定できる。このインターフェースがよくできていて、画面に結果を反映させながら調整できるのは便利だが、触れる項目は意外と少なかった。(titleタグ相当部分も変更できない。)Enterprise Edition だともうちょっと違うのだろうか。もっとも、出来合いのインターフェースが気に入らなければ、APIが返すXML(ATOM)をうまくハンドリングするという選択肢もあるが。

Lib あとは「おすすめリンク」(Featured Links)が面白い。あらかじめ設定した検索語で検索を行うと、指定したページの概要とURLが表示される。また、同義語(Synonyms)の設定で、例えば「図書館」「library」「図」を登録するといずれかのキーワードをもつレコードにヒットする。ただし、ちょっと検索時間はかかるようだ。
 その他、ログとして検索が行われた時間、キーワード、ヒット件数、検索に要した時間が記録される。ヒットしなかったキーワードについても同様。OpenTextとかNamazuでしみじみと「農林一号」などの検索エンジンを作っていた頃と比べると隔世の感がある。

 ということで、システムそのもののカスタマイズの自由度はGoogle Mini > IBM OmniFind Yahoo! Ed. = Google Co-op という印象を受けたが、先のFISHのようにAPIを駆使して検索のバックエンドとするには十分だと考えられる。何しろ手軽なのはありがたい。

 次はもうちょっとヘビーなデータで試そうかな。APIもさわろう。


IBM OmniFind Yahoo! Editionを動かしてみた(1)

 金曜日(1/5)の話。

 1月5日付けカレントアウェネス-Rの記事、「OPACから”FISH”へ」。企業向け無償検索エンジン“IBM OmniFind Yahoo! Edition”を利用した総合目録。

  • Free
  • Integrated
  • Search
  • Handler

でFISH。なるほど。で、ここまで読んだ3千万人ぐらいの方のご想像どおり、記事を読みながらIBM OmniFind Yahoo! Edition(以下「OmniFind」と略)のダウンロードを開始する図書館退屈男。83MBもあるんですが。ダウンロードがとても重いのですが。

 FISHの検索を試してみる。検索窓は1つ。シンプル。検索結果は書影とタイトル、あとは書誌事項のサマリ。ヒットしたキーワードにはハイライトあり。タイトルをクリックすると書誌事項と件名、排架場所を表示。件名はLCSHかな。あとWorldCatへのリンクあり。
 著者、件名からは再検索用のリンクが張られている。なかなかよさげな作り。でも、OmniFindは言ってしまえばよくある検索エンジン。RESTなインターフェースは実装されているけれども、クローラーで検索対象となるWebページや文書ファイルを収集してデータベースにしてくれるだけ。どうやってOPAC上のデータをOmniFindに食わせているのか。

 公式ブログに導入の経緯や仕様の概略も書かれていた。決めセリフは

The OPAC has left the building.

 カコイイ!まるでOPAC2.0のようだ。このくらい大口を叩けばよかったのか。

 システムとしては、MARCをMySQLに放り込み、ISBNなどで各書誌データを単一のページとしてアクセスできるように加工。これでOmniFindがクロールできる。
 このままだと検索結果はGoogleのような普通の検索エンジンと同じになってしまう。でも書影を出したりしたい。ということでインターフェースにはDrupalを使用。OmniFindはバックエンドのデータベースとして動作し、おそらくAPIを使ってATOMで結果をOmniFindに返させてDrupl側で整形、出力しているのだろう(想像)。賢い。

FISH will be released as a Drupal module in the not too distant future.

と書かれていたので、期待したい。

 ダウンロードが終わったので、とりあえずいつものFedoraCore4でインストール。コマンドラインから実行すると「グラフィカルモードで実行しろ。さもなければオプションを付けろ。」と言われるものの、その通りにしても途中でプロセスが落ちてる。
 FAQを読む。

When installing on Linux without a GUI, remotely for example via SSH, the user may encounter the following message:

   "The installer is unable to run in graphical mode.  Try running the installer with the -console or -silent flag."

However, console mode and silent install are actually not supported right now.  Instead you should install while inside a complete graphical desktop environment either on the server or remotely via VNC.

だそうだ。not supportedってなんだよそれ。もっとも対応OSは以下の通り。Linuxはディストリビューションも読んでいるのか。

  • 32-bit Red Hat Enterprise Linux Version 4, Update 3
  • 32-bit SUSE Linux Enterprise 10
  • 32-bit Windows XP SP2
  • 32-bit Windows 2003 Server SP1

 あいにく他の空きマシンはWindowsXPのノート(Pentium Mとちょっと非力)しかない。2万ドキュメントの処理に必要なスペック

  • 1 Processor at 1.5GHz
  • 1GB of RAM
  • 80GB of Disk Space

を満たしていないけれどもまあいいや。2万件も処理しないし。しかしこの判断は甘かった。

 さて、クロールさせるデータを用意しよう。ここはやはりOPACにはOPACで対抗。こんなこともあろうかと、以前「トラックバック可能なOPAC」でMovableTypeに一書誌一エントリで出力したデータがあるではないか。これを使おう。FISHでも、WordPressを使用したOPAC、WOPAC(検索例)を参考にしたとあった。同じようなことを考えている図書館員はどこにでもいるようだ。

 OmniFindを起動。OmniFind自体にWebサーバが内蔵されているため、セットアップ時にサービスに使用するポート番号を聞かれる。とりあえず80で。
 その他、インストールやセットアップのスクリーンショットはMoonGift オープンソースのエントリ「IBM OmniFind Yahoo! Edition レビュー」を参考にされたい。

 クロール範囲には正規表現が使えるようだ。http://www.affrc.go.jp/blog/newbook/*.html を対象に指定し、新着図書情報をblogに出力した約4000件のデータを使う。

 あまり時間もかからずインデックス作成終了。検索速度も悪くない。
 ついでにMovableType側の表示テンプレートやNet::Mobaletypeに送り込むスクリプトも調整。タイトルにアイコンをつけていたのだが、これが検索結果表示時に"<img src=..."とタイトルより先にHTMLのコードが表示されてしまうのでこれを改修。

 金曜日はここまでにして帰宅。あとは土曜日朝にスクリプトが動き出し、新規データを追加するのを待つのみ。

 土曜の朝。OmniFindから応答が返らなくなっていた。職場に戻らないと状況が分からないが、新規データの追加時にOmniFindが落ちたようだ。

 ということで今日はここまで。週末の気分が一気に萎えたことは言うまでもない。
 設定画面などあれこれは次回以降にご紹介を予定。


Hello, NAGOYA City, How'er you doin' (2nd)

 セミナー2日目。行きのタクシーの中で、今日の進行について打ち合わせ。今日いらっしゃる講師の講義の後は、グループ毎にこれらのツールで何ができるか、などをディスカッションしてもらい、それをwikiでまとめて発表することとした。

 前半は講義。今度は利用者サイドから見たWeb2.0について。mixiの画面経由でこのblogを紹介していただく。画面を見て眠気が一瞬で吹き飛んだ。各位にはとりあえず忘れて頂きたい。

 ディスカッション中は時々グループ間を見て回りフォローを入れるほか、回線とサーバの稼働状況をチェック。無線LANへの接続台数は12台ほど。pingで計測したサーバからのレスポンスは1msから10-12msに低下。体感的なレスポンスもちょい遅め。サーバのCPU負荷はそれほどでもない。apacheもリクエストをちゃんと捌いている。とすると、ボトルネックは無線LANルータ。見せてもらおうか…新型ルータの性能とやらを。普段なら「こんなこともあろうかと」ネットワーク担当のスタッフをコールするのだが、ネットに繋がっていないこの地では何のフォローも期待できない。(筑波に戻ってから相談したが、「その環境だとcollisionを起こして当然。」とばっさり切られる図書館退屈男。次はもう一台ルータを持ってゆこう。)

 ディスカッションの終わりに、「補足」として高橋メソッドでXAMMPの説明。「自分のPCでwikiをしたい人のために」と題してフルスピードトーク。さすが高橋メソッド。さくさく進む。で、文字の小さいところでストップがかかる。「後でこのスライドは頂けるのでしょうか。」とか「(別のところで見せたいので)できればこの環境をそのままに。」という要望が多いため、とりあえず来年ぐらいまでは今日の環境にアクセスできるようにする旨を連絡。
 
 そしてはグループごとの発表。スクリーンに各グループがwikiでまとめた内容を写しながら説明(操作は私)。昔は模造紙だったりホワイトボードを使っていたことを考えれば隔世の感あり。まとめもやりやすかったのではなかろうかと勝手に推測。

 解散。午後は希望者のみ産業技術記念館の見学。こちらは参加者のPCのhostsファイルを元に戻したり配線を解いたりPCを梱包したり。バタバタ。ケーブルを束ねるワイヤーの20mリールカッター付(商品名:OAねじラ~。サンワサプライ、品番CA-611W。)が「こんな便利なものがあったのか」と意外な人気。標準価格399円と安価なので一家にお一つオススメしたい。

 後片付けもひと段落し、こっそりアンケートを盗み見る。やはり講評は気になるところ。「グダグダ」とか言われたら帰れない。ところが、自由記入欄は「実習が楽しかった」「自分でもチャレンジしたい」と高評価。ありがたい。他の委員からも「過去にない画期的なセミナーではなかったか」との声も。報われた気もしたが、やはりネットワークが届かないのは痛かった。いろんな意味で。

 片付けの後は、講師3人で名古屋駅で昼食。JRセントラルタワーズのクマが気になる。後で調べたところ、あのクマはイルミネーションになるらしい。かわいいじゃないか。
 後ろ髪を引かれつつランチ反省会。「やはりネットは必須だろう。」「XAMMPで実習しなかったのは正解。クライアントとサーバは別でないと受講生は*確実に*混乱する。」御意。Windows上でWebサーバを立てたところで、URLがlocalhostがローカルのパスかだけで80番ポートを経由してサービスを受けているか否かは実感しにくいだろう。あまつさえIEならエクスプローラと変わらなく見えるかもしれない。きっと。

 講師は皆忙しい。足早に東京へと戻ってゆく。
 図書館退屈男は…3月までの上司から「豪華松阪牛のホルモン焼き」へのお誘いを受け津へ移動。まだ旅は終わらない。Hello, TSU City, I'm comin' back.

 次の名古屋公演は3月。もうちょっとお待ちください。ネタどうしよう。


Hello, NAGOYA City, How'er you doin' (1st)

 インターネットに接続されていない環境で「Web2.0を体感」するセミナーを専門図書館協議会秋季セミナーで開催。
 講師をするほか環境構築も任された。これが今回の名古屋でのミッション。

 Web1.0以前の状況で何ができるのか。でも2.0的な何かを体験してもらう。相変わらず無理な注文が降って来る。誰も止めなかったのか。
 とりあえず、サーバ-クライアント環境を基本とし、会議室内で無線LANをメインにクライアント6台を接続、サーバはいつも職場のテストで使っているPC-98NX(XP+TurboLinuxデュアルブートモデル。今はFeroraCora4に入替。)を使用することとした。何かあった時に自分で構築したマシンなら何とかなると思う。

 ソフトウェア。この環境ではGoogleMAP+ホニャララなマッシュアップでAJAXな事例すら再現できない。ここは一つ「集合知」ということで、参加者を6つに分けたグループ毎にWikiとBlogを構築、そしてその更新情報をRSSリーダで取得。なんとなく2.0ライクだ。(FreshReaderを試用期間中に使用しました。サイドフィード株式会社様、ご協力ありがとうございました。)
 他の二人の講師の方々には、「外部への接続は出来ないが室内でLANは組む」と連絡。当日参加するスタッフにも、「お試し版」として当日の環境のプロトタイプを提供し使い勝手や当日の実習のイメージをつかんで頂く。それぞれ、普段使い慣れないソフトウエアだけに戸惑いもあった様子。さすがにマニュアルなしでいきなりPukiwikiは厳しかったようだ。急ぎ補足資料を作成、紙ベースでwikiの記法やプラグインの解説を加える。

 自分の発表は例によってRSSとOPAC2.0の話題+ライブラリー内でのWikiの活用事例について。「Web2.0とは」という話題は他の二人の講師が担当してくれる。事前に資料をいただき拝読したが、うまく実習に繋がればよいと願うのみ。

 ふと、前日になってXAMMPの存在を思い出す。そうだよ、これがあれば別にマシンを用意してサーバを立てなくてもlocalhostでapache+PHP+MySQLな環境が作れるよ。しかしこれを普通の図書館員に「やって」というのは多少酷か。「参考」として紹介する程度にとどめることにして、行きの新幹線の中で高橋メソッドなスライドを30分で作成。

 着いた会場は産業技術記念館。規模と展示品にトヨタグループの歴史と力を思い知る。正直、甘く見ていました。関係者の皆様ごめんなさい。

 お借りした会議室に電源タップを引き回し、PCを設置し無線LANを接続。通信環境良好。事前に「無線LAN接続可能なPCを持参していただければ自分の環境でも実習ができます。」と連絡してあったので、来場した参加者持参PCのhostsファイルを今回の環境用に書き換え。DNSサーバもないので原始的だが確実な方法。

 講義は無事終わる。一日目の講師は以前専図協で研修委員として協力していただいた方。参加者向けに上手にブレイクダウンさせた講義。さすがだ。

 自分の講義の後、1時間程度の実習。
 環境とソフトウェアの概要説明をしていたところ「で、何をすればいいの?」と参加者から質問が挙がる。そうだ。実習用のwikiやサンプルのRSSフィードのリンク集は作ったけれども、具体的な作業指示はしていない。「まずはwikiで自分の機関の紹介などを協同して書き、慣れたらRSSリーダで他のグループの更新情報を確認してほしい」と指示。
 2グループで一つのwikiを更新してもらうことにした。その方が「どこからでも、だれでも更新し情報共有ができるweb」としてのwikiを理解しやすいと考えた。
 講師二人で各グループのヘルプに回る。やはり進み具合には差が出る。wiki独特の記法も、「簡単」と「難しい」と反応が分かれる。その都度フォローアップ。進行の早い班はRSSリーダなどにも取り組んでもらう。わいわいと実習は進んでゆく。雰囲気はよいようだ。
 ネットワークやサーバのレスポンスはいま一つ。どこがボトルネックか、明日は調べよう。
 
 そして終了時刻。すでに定刻は過ぎていたが、次に懇親会も控えているので今日はここまでとする。
 司会から「いろいろな情報が入り、頭が「もやもや」としていることと思いますが、そのあたりは明日の講義と実習ではっきりとしてください。」として締める。

 懇親会。今日の感想を聞いて回る。「面白かった!」と興奮気味に語る方や「ちょっと盛りだくさん」などの感想を頂く。先日の大阪でのセミナーを企画、また参加した方も参加されていたのでご挨拶。「(大阪に続き)今日も早口の進行ですみません」と挨拶するも、「前回のセミナーも、『(図書館退屈男の人は)早口だけと内容はよいので』として推薦したのですよ」と返される。もう全国区なのか。で、「次回は、録画して0.5倍速で再生してみてください。それてちょうどいいと思います。」…自虐的なジョークだ。でも受けた。
 
 翌日の進行に不安を感じつつ、名古屋駅前のホテルにチェックイン。そしてスタッフを中心に隣の居酒屋で2次会。名古屋の夜は長い。(続く)


「狂犬病発症」の報に接し

 帰宅後、いつものように自宅でRSSリーダをチェック。

 するとasahi.comで「京都市の男性が狂犬病発症 国外での感染は70年以来 [暮らし] (2006-11-16 21:24)」との報が。Googleニュースで検索したところ、いくつかの新聞等でも報じられている。

 …出番だ。弊社の国内農学文献を収載したデータベースを検索。キーワード「狂犬病」で21件ヒット。タイトルでは64件のヒット。なぜこんなに違うのか。どうも、上位概念である「ウイルス」でインデックスを付与されているレコードもあるようだ。

 とりあえず多い方を採用することとする。早速、ダウンロードした検索結果動物衛生研究所動物検疫所のWebサイトにある関連情報を弊社webサイト図書館総合展案内Blogに掲載。弊社の来館者数は多くはないので、「関連する資料を別置して展示」では効果は薄い。まずはデータベースの検索結果とそこからの論文へのリンク(一部論文はPDFでDBに搭載)を公表することで何かの役に立てるかもしれない。1918~1935年の獣疫調査所研究報告など古い論文(PDFあります)も散見される。本当は検索結果から大学等のリポジトリへOpenURL等を使いリンクリゾルバ経由で飛ばせればよいのだが、少々古めのシステムのためそれも望めず。いずれ改善しよう。

 果たして、こうした情報をいち早く公開することに効果があるのか。こういう場合こそ、Blog+RSSでの情報公開はタイムリーに情報を届けるツールとしての効果が出そうだ。今回はその当りも見極めたいと思う。


 当然ながら、今回は独断で動いたため上司の許可は取っていない。明日の朝一で説明しなければ。


その名はNext-L

 夕方から都内某所で会合。議題は「オープンソースによる図書館システムの開発と普及」とでもなろうか。

 カレントアウェアネス No.281(2004年9月20日,一橋大学総合情報処理センター 兼宗進) CA1529 「図書館システムとオープンソースの利用」でも指摘されている通り、

商用の図書館システムは,機能が多く複雑になり,全体を理解することが難しくなったという指摘がある。導入費用は高価であり,導入前に複数のシステムを使いながら比較することは難しい。改良の速度は遅く,ユーザーに機能の決定権はない。運用後のサポートは,システムの提供ベンダーに依頼することになり選択肢がない。

図書館に関わるオープンソース・システムは確実な広がりを見せている。今後はオープン性を活かしてこのようなシステムと連携することにより,発展が停滞している商用システムに代り,一気に利用が加速する可能性がある。

 のように、商用システムに依存している日本の現状を憂う声が以前より挙がっている。

 また、海外のオープンソースによる図書館システムの試行と日本語化を行っていた原田からは、カレントアウェアネス No.289(2006年9月20日,慶應義塾大学 原田隆史) CA1605 「オープンソースと図書館システム」において、オープンソースによるシステムの利用の意義として、

 このように考えた場合,OSSの本質は,価格やセキュリティ面ではなく,システム決定時における選択肢の広がり,システム運用に関する自由度の高まり,さらに将来的な機能向上の方向性をOSSの利用者(たとえばOSSを導入した図書館などがこれにあたる)主導で決定することができるという点にあると考えることができるだろう。

 のように、

  • 設定やメンテナンスの選択肢が広がる
  • 利用者の要望に応じた機能の追加が容易など、ソフトウェア運用に関する自由度が上がる
  • 特定のメーカーによって開発されたシステムを導入した場合と比較し、自社のシステム計画とは無関係なバージョンアップ,ライセンスや保守料の値上げ,サポートが打ち切られてしまうなどのリスクを回避できる

 などの利点を挙げている。

 しかし、前述の兼宗の指摘から2年が経過した現在でも、「公共図書館におけるビジネス支援や大学図書館における機関リポジトリ管理などの新しい役割を効果的に対応するための仕組みが新たに必要とされている」(前掲)にもかかわらず、国内の図書館システムの現状に目立った動きは無いといえる。

 このような状況下において、ついに複数の有志によるコミュニティを中心として、国内でオープンソースによる図書館システムの設計、開発を行い、全国に普及を図るプロジェクトが動き出した。その名は Next-L。正式な名称は長いのでとりあえず略しておく。

 今日の会合(幹部会とでも言うべきだろうか)においては、プロジェクトの趣旨説明と解決すべき課題の確認が行われた。まずは小規模な公共図書館や学校図書館などの業務等に適した規模での設計と開発が念頭に置かれているが、OPAC2.0のような新たな概念に基くサービスについても順次組み込んでゆく、という方向性が確認された。
 プロジェクトの体制、支援団体の状況、また現時点での参画を想定しているメンバーを集めてのキックオフミーティングに向けて準備すべき事項についても検討が行われた。

 来週に控えた図書館総合展においても、このプロジェクトについてなんらかの動きがあるだろう。Webサイトも近々に公開されるので、趣旨に賛同する各位におかれては動向を注視されたい。


XooNIps library module v.1.0成果報告会

 XooNIps library module v.1.0がリリース、ということで成果報告会に出席。

 バージョンアップされた点は、

  • MODS対応スキーマを前提としてCiNiiへの対応を考慮
    JuNii、JuNii2にほぼ対応
  • EXCELファイルからのデータ一括登録に対応
  • 幅広いコンテンツに対応できるよう、アイテムタイプを変更、新設
    同時に入力項目も見直し
    アイテムタイプは以下の通り
    • Article (旧 Bulltin)
    • Book (旧 Rarebook)
    • Photo
    • Website(新設)
    • Video(新設)
    • Sound(新設)
    • Data(新設)
  • MODS形式での出力をサポート

 など。スキーマをMODSにしたのは、通常の目録入力作業の一環としてメタデータの入力も考えており、元々はMARC21で入力しているため作業者の理解が容易、またタグも英語で分かりやすい、DCより表現力がある、目録との互換性の確保、などが理由。実運用を考えたら、確かに慣れているデータの入力手法のほうがよいのかも。
 ただし、最初からMODSでデータ入力をするのではなく、アイテムタイプごとに必要な情報を入力し、出力時にMODSを使用するとのこと。

 帰ったら早速XooNIps XSAS版をインストールして試してわくわく…と思ってよく話を聞いたら、まだJuNii2対応の部分がfixされていないので、テストは待って欲しいとのこと。なので試験はちょっとお預け。

 そのほか、独自の試みとして、検索エンジンをMySQLではなくGoogle MiniやGoogle Custom Search(Google Co-op)を利用した事例が紹介された。XooNIpsでもPDFファイルの全文検索はサポートしているが、機関リポジトリのように大量のファイルとページ数が相手となると検索速度が低下するため、Google Mini等を試用しているという。管理画面も見せていただいたが、検索インターフェースはかなりカスタマイズ可能。検索結果は基本的にはXMLで出力され、これをXSLTで変換して表示しているため、Googleライクにもそうでない結果表示にもできる。カスタマイズの自由度はGoogle Miniの方が高いとのこと。

 また、今後の展開としては、SFX/Metalibとの連携の計画が上げられた。
 まずは、SFXのナレッジベースに慶應のリポジトリKoaraの掲載誌名等を一括でアップロード、Metalibの検索結果からこのSFX経由でKoaraの誘導させる(フェーズ1)、またMetalibはOAI-PMHを話せるので、Koaraからメタデータをハーベストした上で、Koara側でOpenURL対応を行い、SFX/MetalibのFull Textターゲットとして誘導させる(フェーズ2)、などが計画されている。

 弊社でもSFXを導入しているので、このあたりも興味深い。
 この界隈の動向は、「機関リポジトリをどうやって構築するか」から「どこからアクセスしてもらうか」「どうやって収載論文の可視性を上げるか」にシフトしているようだ。弊社としては、「周回遅れ」にならないよう、先端の動向を収集しつつ最適解にトライ、というところか。

 説明会の後は例によって懇親会。夏に顔見知りになった方々を含め情報交換。
 うちでも早くリポジトリのプロトタイプぐらいは作りたいのですが。


 帰宅の途上、時間があったのでヨドバシAKIBA店へ。いつもより店外に人が多い。そういえば入り口付近に「何かを待っている」風情の人が着々と増えていた。ぼーっと電光掲示板を見る人、携帯をいじる人、何かしらPDAで入力している人。一様に「俺は待ってるぜ」なオーラが見える。

 そうだ、11日はPS3の発売日だ! 某ニュースサイトの記事は、ネタではなく本当だったんだ! 外は冷えるし炊き出しとかあったらどうしようといらぬ心配をしてしまったが、とりあえずは地下駐車場に収容されて並んでいる模様。そうか、それなら冷えないね。並んでいたら買えたかも。(←無理)

 その後、ニュースで「購入希望者数千人、アキバに集結」の報道も。数千、というのはサバ読みとの情報もあったが、新宿では、午後11時に「完売」の報も。恐るべしPS3。


RSSをレクする

 レファレンスカウンター。午前10時。いつもと変わらない朝の空気。遠方より会議のため出張してきた別の研究所の課長に挨拶をしているときに、任務はやってきた。

 総務課長がカウンターに現れこう告げた。

「時間ある? 所長がRSSについて詳しく知りたいらしいから、レクお願いね。よろしく。」

 時間があるもなにも、特段の用務は今ないので所長対応なら優先順位は最上位になる。ここで言うレクはレクリエーションのレクではない。レクチャーのレクだ。(ちなみに、記者発表/説明は記者レクとも言う。)
 資料準備と課長のクリアを取るため1時間の猶予をもらう。取り急ぎ、最新版のスライド何枚かを組み合わせ、RSSの説明と当所での取り組みを中心としたセットに再構成。いつでも出せるように用意してあったアクセスログを掘り起こす。手持ちで関連の雑誌記事も準備。係個別に取り組んでいる細かい事業について、幹部に直接説明できる機会などそうはない。機会はできるだけ有効に使いたい。資料を吟味の上、課長のクリアは取れた。

 1055時出撃。隣の棟の所長室に入り、30分程度でRSS利用のメリット、当所での数々の取り組み、今後のサービス展開などについて説明。「一行で表すとこうです。」というようなフレーズやイメージしやすいポンチ絵(絵入りの説明用ペーパーはこう言い習わされている)を用意できたのが功を奏す。理解していただけたようでほっとする。
 レクした内容は、来週の本社の会議で当所の図書館総合展出展とプレゼンテーションを紹介する際の参考とするという。うまく当所での事業の広がりを宣伝してくれれば社内でのアピールにも繋がり双方にとって都合がいい。Win-Winだ。

 去り際に所長から一言。「あ、君のプレゼンテーション、聞きに行くからよろしく。申し込みとかいらないよね?」
 ええ、所内の方は申し込み不要ですが・・・ボスが聴講されると思うと・・・なんか胃が痛いような気もしてきた・・・help me。

 とはいえ、周囲の図書館と比較して当所はどのようなイメージで見られているのか、またサービスの評価はどうなのか。そもそも図書館の役目は何か。幹部にとって肌でわかりやすく感じられるのは図書館総合展ぐらいだろう。ご来訪の折には、その辺も含めてしっかりご案内することにしよう。


近づく発表、そしてオフ

 図書館総合展まで2週間を切りました。そんなさなかに今日は某協議会で秋季セミナー(名古屋)の打ち合わせ。講師のはずなのに会場の設営やセミナーの運営もするというヘビーさ。

 そして毎日のように図書館総合展でのプレゼンテーションのお申し込みを頂きます。受領の通知など返信は自分で書くことが多いです。さぞや人数の少ない職場と思っていただければ幸いです。(実際はあのアドレスを受信しているスタッフが少ない、というだけです。)まだお席に余裕はありますので、ご興味ありましたら図書館総合展公式サイトよりぜひお申し込みください。その分講師のプレッシャーも増えてまいります。

 新ネタはご用意できないかもしれませんが、Googleツールバー4の弊社のWebOPAC検索用ボタンに、新着図書RSSフィード(在筑波機関のみ)を表示させる機能を追加したり、導入用デモムービー(http://library.affrc.go.jp/opac/gtoolbar4demo.htm)を作ったりしていますので、何かしら新しくお見せできるものがあるかもしれません。(デモムービー作成には Wink2.0 for Windows(http://www.debugmode.com/wink/)を使用しています。)


 下記オフ会の参加受付については、11月14日を持って締め切りました。

 エントリされている方もそうでない方も、図書館総合展でお会いしましょう。

 何かせっかくの機会なので、11月21日(火)には主にmixi司書コミュニティのうち、「OPACを作ろう」トピック関係者によるオフ会も企画しています。

 話題としては、

  • OPACなど図書館システムとその行く末に興味のある方すごく歓迎
  • もちろん「みるだけ」の人も大歓迎
  • 宴会中にPCでモノを見せ合うなどアリ
  • 幹事お手伝いも絶賛募集中
  • 「図書館退屈男にもそもそと苦言を呈したい」 方もwelcome

 などです。お申し込みの締め切りは11月14日(火)としておりますのでご注意ください。

 mixiお使いの方は当該トピック、http://mixi.jp/view_event.pl?id=11936268&comm_id=32328 からエントリーをお願いします。
 また、このエントリのコメント欄に参加希望の旨を記入していただいても結構です。お名前(ハンドル可)とメールアドレスをお知らせください。現在、コメントは管理者の許可がないと公開できないよう設定しています。当方でお名前等を確認し返信した後は、当該コメントを削除します。

 時間は18時以降、場所はパシフィコ横浜周辺あるいは中華街を予定しています。
よろしければ皆様お誘い合わせの上ご参加ください。


Referencerのブルース

 そんなこんなでRSSだのそれPlaだの言いつつも、日々レファレンスはやってくる。

 今日のレファレンスは、文献複写依頼のデータの精査。文献複写依頼の受理と複写、発送作業は別のスタッフが行っているが、当該資料の欠号、記載事項の不備など調査の必要があるとレファレンス係の出番となる。

 受け取ったデータは、

「農業気象」Vol.48 No.(不明) (1993)

 収載の論文。複写担当からは、当該のページはVol.48(1-4)には存在しないと言う。
発行元の日本農業気象学会のWebサイトにある「『農業気象』総目次」で確認するも当該論文なし。この雑誌は年4回刊行。従ってNo.は1~4となるはず。バックナンバーの一覧からも、Vol.48は4号まで。どうする。取り急ぎ依頼館に、現物が確認できないため送付が遅れる旨と通知。わずかばかりの時間を稼ぐ。しかしそれほど調査に時間は割けない。

 まずはデータベース検索、弊社のDB群、NDL雑誌記事索引、J-Dream、CAB Abstract、BIOSIS Previewsなど主要なデータベースを使い、著者、論文を検索してもヒットなし。Google、Google Scholarからも芳しい返事は無い。
 こうなると学会のProceeding類なども疑ってみるが、該当は無い。

 単なる記載ミスか。しかし、各種データベースからは号の記載は無いものの、引用文献として "J. of Agri. Meteorol. v.48 1993" が示されている。複数の文献で確認されたので、おそらく記載事項に不備は無いだろう。

 ここで昼休み。今週は所内レクリエーションとやらで課対抗「ペタンク」に興じる。当課は一敗地にまみれる。

 午後。他の仕事を捌きつつ調査を継続。すると、引用文献として件の論文が "J. of agri. meteorol. v.48(5) 1993" と標記されていることを確認。第48巻5号? 年4回刊のはずが? 謎は深まる。当然、当館では48(5)は所蔵していない。Webcat等でも、他館も同様の状況に見える。
 念のためNDL-OPACで所蔵巻号を確認。刊行頻度は「Q: 季刊」とあるが、[所蔵詳細]を確認すると、60(5)、60(6)という冊子があるようだ。と言うことは、年4回以上刊行されている年があるということだ。なんてこった。

 混乱。そして最後の手段。学会事務局に電話で問い合わせた。回答は、

通常は年4回刊だが、スペシャルな場合に5号以降が刊行されることがある。
これは会員向け配布のみのため、寄贈先(当館も含まれる)には通常は送付していない。

 とのことであった。幸い、48(5)に依頼あった論文が掲載されていることも確認していただき、入手の目処は立った。依頼館にもこの旨を連絡。

 課内で話題にすると、ベテランの先輩司書から「あ~、昔の学会誌には時々そういうことがあったよね~。最近は見ないけど。」との金言を頂く。これも修行か。