国立情報学研究所
情報学オープンフォーラム




第3回 国立情報学研究所
情報学オープンフォーラム

日程:平成16年8月6日(金)15:30〜17:20

講師紹介
渡辺 恵子 助教授
国立情報学研究所
http://research.nii.ac.jp/~keiko/official/content_j.html



講演内容

「日本の大学のeラーニングへの取組みに見られる傾向 −概要と実例から−

 現在のところ、日本の大学のいわゆるeラーニングへの取組みに関しては、各研究室レベルや学科/専攻、学部/研究科における実験的な取組みは多数見られるものの、大学の正規の教育/プログラムの一環として定着しているものは限られている。
 日本におけるeラーニングに関するデータや、発表者が既にeラーニングを本格的に導入、あるいは定着させている大学を対象に行ったインタビューを基に、日本の大学のeラーニングへの取組みに見られる傾向について考察する。




講師紹介

宮川 繁 教授
マサチューセッツ工科大学言語学教授、高知県・ジョン万次郎日本語日本文化講座教授

マサチューセッツ工科大学(MIT)において、「理論言語学」と「教育とメディア」の二つの分野で活躍されている。
言語学の分野では50篇の論文と3冊の著書を出版。
また、開発したマルチメディア教材 ”StarFestival” は、Multimedia Grand Prix 2000 及び 1997 Mac World Exposition を受賞。
その革新的な教育内容によって、1995年にはMITの教育に最も重要な貢献をした者に与えられる Irwin Swizer 賞を受賞し、2002年には教育工学誌 ”Converge” の ”Twenty national Shapes of the Future” の一人に選ばれている。さらに本年、MITの Class of 1960 Innovation in Education 賞も受賞。


講演内容

「MITオープンコースウェアと大学のアイデンティティ」

 オープンコースウェア(OCW)は、MIT で開講している約2000のコースほとんど全ての教材を無料で公開しようとするものである。その構想が2001年4月にチャールズ・ベスト学長により公表されたときには、New York Times 紙の一面を飾った他、日本の日経新聞など、世界中の大手の新聞で報道された。
 OCW は、メロン財団とヒューレット財団からの2500万ドルの助成金を得て、2002年9月に、まずは50のコースから正式にスタートした。最初の公開から 48時間以内に400万件を超えるアクセスがあり、そのアクセスを分析したところ、少なくとも平均9ページ以上を閲覧している65万の固有の利用者が確認 でき、多くは目的を持ったアクセスであることが示された。


 今年の3月までに OCW で公開されているコースは700に達し、引き続き世界中から非常に多くのアクセスがなされている。 OCW は、その豊富な視覚化されたコンテンツと全く新しい方法論ゆえに、当初から文化を視覚化するということに興味を示しており、最初の取組みの時点からプロ ジェクトの種をまいていた。
 宮川教授は、もともと学長に OCW の構想を提案した委員会のメンバーでもあり、現在も OCW の Advisory Board のメンバーとして深く関わっている。





オーガナイザ
渡辺 恵子
国立情報学研究所 情報学資源研究センター 資源構築利用推進室・助教授
ページのトップへ


第2回 国立情報学研究所
情報学オープンフォーラム


日時 : 平成16年6月29日(火) 17:30-19:00
講演 17:30-18:30   質疑応答 18:30-19:00

場所 : 学術総合センター  2F 中会議場(3, 4)

マイケル A . クスマノ 教授
Professor Michael A . Cusumano
MIT Sloan School of Management
Profile : http://web.mit.edu/cusumano/www/



”同期と安定化 : 迅速かつ柔軟なソフトウェアの開発”

 本講演は、国立情報学研究所と日本学術振興会「基盤的ソフトウェア技術開拓のための研究開発委員会」(ソフトウェア技術革新を目指した産学官共同活動)と共催で行われた。クスマノ先生は日本語も堪能で、講演は日本語で行われた。満席の聴講者が集まり、質疑応答も時間をオーバーして活発に行われた。

 まず、欧州・米国・日本のソフトウェアを一言で比べてみよう。欧州は「科学としてのソフトウェア」でオブジェクト指向、フォーマルメソッドなど科学的アプローチに強い。米国は「ビジネスとしてのソフトウェア」で、(不完全でも)早期に製品を世の中に出してデファクト・スタンダード化させ、利益を狙っている。日本は、「製品としてのソフトウェア」で、無欠陥追求・ソフトウェア工場に象徴される。
 ソフトウェア開発の生産性・信頼性向上対策は、昔からの重要課題である。開発プロセスに関しては、最近は繰り返し型(スパイラル型開発、同期と安定化、エクストリーム・プログラミング など)が注目を浴びている。
 ”同期と安定化”とは、頻繁にビルド(稼働プログラム組上げ)を行って各員の設計をプロジェクトの他メンバーと同期させ、周期的に統合・安定化試験する事を繰り返してソフトウェアを開発する手法で、マイクロソフト、ネットスケープ等で実施されている。プログラマの創造性発揮、短期開発、柔軟対応、顧客指向開発などを狙っている。
 これに対し、ウォーターフォール型開発は、高信頼システム、組込システムなどに向き、依然として日本では主流である。




"Synchronization and stabilization : quick and flexible development of software"

 This lecture meeting was held under cosponsor-ship of National Institute of Informatics and Japan Society for the Promotion of Science : "The research-and development committee for infra-software technical exploitation (industry, academia and government joint activity which aimed at software technical innovation)". Professor Cusumano is good enough at Japanese, so he gave the lecture in Japanese. Many auditors filled the hall and had the question-and-answer session so eagerly that the end time was prolonged.

 First, let me mention the keywords, which characterize the software of Europe, the U.S., and Japan. It is "Software as science" in Europe, and they are good at scientific approaches such as an Object oriented and a Formal method. It is "Software as Business" in the U.S., and they intend to get profits by taking out products to a market at an early stage even imperfect and making it de facto standard. It is "Software as Production" in Japan and is symbolized by "zero defects" and "the software factory".
 The improvement the productivity and the reliability of software development are important problem as usual. Recently the repeated types (spiral type development, synchronization and stabilization, Extreme programming and so on) has attracted attention as a development process,.
 "A synchronization and stabilization" are the techniques of developing software that repeat periodically to build up program for synchronizing the design of each member with the other members of a project, and to practice integration test and stabilization test. And Microsoft, Netscape, etc adopt it. It is useful for programmer's creativity exertion, short-term development, flexible correspondence, and customer intention development etc.
 On the other hand, Waterfall type development is useful for a high reliance system, an embedded system, and so on, and is still in use in Japan.


 

オーガナイザ : 丸山 勝巳 ソフトウェア研究系 分散統合処理研究部門 教授
ページのトップへ


第1回 国立情報学研究所
情報学オープンフォーラム


日 時 : 平成1649日(金) 10:30-12:30

場 所 : 学術総合センター 20階講義室(2004/2005



Prof. Kam-Fai WONG
 (Department of Systems Engineering & Engineering Management The Chinese University of Hong Kong)

 

Towards Chinese Temporal Information Extraction and Its Applications


 Temporal information carries information about changes and time of the changes. It is regarded as an equally, if not more, important piece of information in applications like extracting and tracking information over time or planning and evaluating activities. The conventional information systems may maintain and manipulate the occurrence time of events, but they may not be able to handle users queries concerning how an event relates to another in time. Undoubtedly, they are not capable of inferecing new information which are not presented in the texts, but can be derived from existing facts.  The systems, which cannot cater for temporal information effectively, are thus rather restricted. Therefore, it is useful to capture and maintain the temporal knowledge associated to each action, and introduce an effective inference mechanism into an information system.

  In a broader sense, when we speak of the temporal information contained in languages, we do not simply mean those explicit specifications, such as time clauses or phrases associated with the actions addressed. It also includes the information which is implicitly embedded in verbs. Thus, modeling of the temporal aspects of a language is more complicated than a physical time-dependent system. Over the past years, temporal information processing and reasoning have received increasing attentions. Nevertheless, only a few researchers have investigated these areas in Chinese. In this seminar, I will briefly introduce our past and ongoing research activities on temporal information extraction, processing and inference.





辻慶太

(国立情報学研究所 人間・社会情報研究系 助手)


 Towards Identification of Newly-coined Words Which Are To Be Important in Specializes Domain



 
If we could predict which words are to be important, among newly-coined ones, in specialized domain, it will be useful for compliation and revision of terminology and for detection of emerging trends in specialized domain. towards this goal, I investigaged the features of newly-coined words which would enable us the prediction. I mean two types of "important" words i.e. (1) words which are frequently used and (2) words which are connected to the special concepts in the domain. The basic points which I would like to emphasize are (a) importance of introducing the temporal information to the term extraction and (b) importance of distinguishing newly-coined terms from the other at the term extraction. As for (a), many of the researches about term extraction has used texts without considering when they were produced. The comfirmation about how the old the texts we can use as a resource for "present term" extraction has not been done. And the information about the temporal validity of the extracted terms is useful for lexicographer who would like to delete or avoid adding the terms which will die immediately. As for (b), many of the researches about term extraction has not distinguished newly-coined terms from the others. The frequency of the newly-coined terms in the texts are inherently low and it is difficult to extract them by frequency-based method proposed so far. Against these background, I used the papers of journal (Journal of the American Society for Information Science and Technology) and proceedings (SIGIR) which range 17 years and investigated how existing term extraction methods are useful for identifying important words defined as (1) and (2). The methods I adopted are ones which are based on TFIDF, term representativeness of Hisamitsu, and measure of Nakagawa.



オーガナイザ : 神門 典子  国立情報学研究所 ソフトウェア研究系 ソフトウェア工学研究部門 教授
kando@nii.ac.jp
ページのトップへ