words
stringlengths 1
4
| postags
stringclasses 12
values |
|---|---|
の
|
助詞
|
、
|
補助記号
|
。
|
補助記号
|
て
|
助詞
|
に
|
助詞
|
を
|
助詞
|
が
|
助詞
|
は
|
助詞
|
と
|
助詞
|
た
|
助動詞
|
し
|
動詞
|
で
|
助詞
|
も
|
助詞
|
ます
|
助動詞
|
空白
|
|
で
|
助動詞
|
です
|
助動詞
|
1
|
名詞
|
こと
|
名詞
|
な
|
助動詞
|
0
|
名詞
|
に
|
助動詞
|
いる
|
動詞
|
する
|
動詞
|
い
|
動詞
|
か
|
助詞
|
2
|
名詞
|
「
|
補助記号
|
」
|
補助記号
|
から
|
助詞
|
お
|
接頭辞
|
れ
|
助動詞
|
まし
|
助動詞
|
・
|
補助記号
|
(
|
補助記号
|
)
|
補助記号
|
さ
|
動詞
|
ない
|
助動詞
|
ある
|
動詞
|
いう
|
動詞
|
よう
|
形状詞
|
年
|
名詞
|
だ
|
助動詞
|
あり
|
動詞
|
や
|
助詞
|
3
|
名詞
|
その
|
連体詞
|
なっ
|
動詞
|
!
|
補助記号
|
ませ
|
助動詞
|
ん
|
助動詞
|
5
|
名詞
|
この
|
連体詞
|
ない
|
形容詞
|
ご
|
接頭辞
|
9
|
名詞
|
月
|
名詞
|
的
|
接尾辞
|
4
|
名詞
|
ば
|
助詞
|
など
|
助詞
|
人
|
名詞
|
もの
|
名詞
|
8
|
名詞
|
でき
|
動詞
|
方
|
名詞
|
なり
|
動詞
|
ため
|
名詞
|
6
|
名詞
|
なる
|
動詞
|
まで
|
助詞
|
7
|
名詞
|
?
|
補助記号
|
ね
|
助詞
|
者
|
接尾辞
|
それ
|
代名詞
|
さん
|
接尾辞
|
場合
|
名詞
|
たい
|
助動詞
|
私
|
代名詞
|
れる
|
助動詞
|
日
|
名詞
|
ん
|
助詞
|
思い
|
動詞
|
これ
|
代名詞
|
自分
|
名詞
|
ください
|
動詞
|
時
|
名詞
|
できる
|
動詞
|
日
|
接尾辞
|
だけ
|
助詞
|
...
|
補助記号
|
でしょう
|
助動詞
|
日本
|
名詞
|
-
|
補助記号
|
き
|
動詞
|
おり
|
動詞
|
一
|
名詞
|
たら
|
助動詞
|
られ
|
助動詞
|
Japanese Stopwords for nagisa
A curated list of Japanese stopwords based on the tokenization rules of nagisa, a Japanese text analysis library.
Overview
Dataset Description
This dataset contains the top 100 most frequently used words in Japanese text, extracted from large-scale corpora. Each word is annotated with its part-of-speech (POS) tag according to nagisa's tokenization rules.
This list is constructed by extracting the top 100 most commonly used words from the following sources:
- CC-100 dataset - Monolingual datasets from Common Crawl
- Wikipedia - Japanese Wikipedia dumps
Usage
Installation
pip install datasets
Requirements
This dataset requires datasets >= 2.10.0.
Loading the Dataset
from datasets import load_dataset
dataset = load_dataset("taishi-i/nagisa_stopwords")
# Get the top 100 most commonly used words
words = dataset["nagisa_stopwords"]["words"]
# Get the part-of-speech tags
postags = dataset["nagisa_stopwords"]["postags"]
Example: Filtering Stopwords from Text
import nagisa
from datasets import load_dataset
# Load stopwords
dataset = load_dataset("taishi-i/nagisa_stopwords")
stopwords = set(dataset["nagisa_stopwords"]["words"])
# Tokenize and filter
text = "東京で美味しいラーメンを食べました"
tokens = nagisa.tagging(text)
print(tokens.words)
# ['東京', 'で', '美味しい', 'ラーメン', 'を', '食べ', 'まし', 'た']
filtered_words = [word for word in tokens.words if word not in stopwords]
print(filtered_words)
# ['東京', '美味しい', 'ラーメン', '食べ']
Data Fields
| Field | Type | Description |
|---|---|---|
words |
string | Japanese word or character |
postags |
string | Part-of-speech tag in Japanese |
Part-of-Speech Tags
The dataset includes the following POS tags:
| POS Tag | English | Count |
|---|---|---|
| 助詞 | Particle | 22 |
| 補助記号 | Auxiliary Symbol | 14 |
| 助動詞 | Auxiliary Verb | 16 |
| 名詞 | Noun | 18 |
| 動詞 | Verb | 16 |
| 接頭辞 | Prefix | 2 |
| 接尾辞 | Suffix | 4 |
| 連体詞 | Adnominal | 2 |
| 形容詞 | Adjective | 1 |
| 形状詞 | Adjectival Noun | 1 |
| 代名詞 | Pronoun | 3 |
| 空白 | Whitespace | 1 |
Sample Data
| words | postags |
|---|---|
| の | 助詞 |
| 、 | 補助記号 |
| 。 | 補助記号 |
| て | 助詞 |
| に | 助詞 |
| を | 助詞 |
| が | 助詞 |
| は | 助詞 |
| と | 助詞 |
| た | 助動詞 |
Use Cases
- Text preprocessing: Remove common words before text analysis
- Feature extraction: Reduce noise in bag-of-words or TF-IDF representations
- Search optimization: Filter out stopwords from search queries
- Text classification: Improve model performance by removing non-informative words
Related Resources
- nagisa - Japanese tokenizer based on RNN
- CC-100 - Monolingual datasets from Common Crawl
- Wikipedia Dumps - Wikipedia database dumps
Citation
If you use this dataset, please cite:
@misc{nagisa_stopwords,
author = {Taishi Ikeda},
title = {Japanese Stopwords for nagisa},
year = {2023},
publisher = {Hugging Face},
url = {https://huggingface.co/datasets/taishi-i/nagisa_stopwords}
}
- Downloads last month
- 159
Size of downloaded dataset files:
1.38 kB
Size of the auto-converted Parquet files:
2.03 kB
Number of rows:
100