#题面
难度:提高+/省选- 标签:字符串 哈希 概率论,统计 字典树,Trie 树 各省省选 天津 高性能 2010
#题目描述
英语老师留了 篇阅读理解作业,但是每篇英文短文都有很多生词需要查字典,为了节约时间,现在要做个统计,算一算某些生词都在哪几篇短文中出现过。
#输入格式
第一行为整数 ,表示短文篇数,其中每篇短文只含空格和小写字母。
按下来的 行,每行描述一篇短文。每行的开头是一个整数 ,表示这篇短文由 个单词组成。接下来是 个单词,单词之间用一个空格分隔。
然后为一个整数 ,表示要做几次询问。后面有 行,每行表示一个要统计的生词。
#输出格式
对于每个生词输出一行,统计其在哪几篇短文中出现过,并按从小到大输出短文的序号,序号不应有重复,序号之间用一个空格隔开(注意第一个序号的前面和最后一个序号的后面不应有空格)。如果该单词一直没出现过,则输出一个空行。
#输入输出样例
输入 #1
3
9 you are a good boy ha ha o yeah
13 o my god you like bleach naruto one piece and so do i
11 but i do not think you will get all the points
5
you
i
o
all
naruto
输出 #1
1 2 3
2 3
1 2
3
2
#说明
对于 的数据, 。
对于 的数据,, 。
每篇短文长度(含相邻单词之间的空格) 字符,每个单词长度 字符。
每个测试点时限 秒。
#思路
开一个 map 来存单词与文章之间的对应关系,使用 set 去重。
每次检索的时候先使用 m.count(s)
[1] 判断是否存在该单词(防止创建无用元素浪费内存),如果不存在就输出空行。
一些坑点:
- 输出时行尾如果有多余空格会 WA 。
- 判断是否为末尾的前一个数时不能用
it + 1 != m[s].end()
,应该用it != --m[s].end()
,否则会报错no match for 'operator+' (operand types are 'std::set<int>::iterator' {aka 'std::_Rb_tree_const_iterator<int>'} and 'int')
。
#速度优化
- 可以将
map
替换为unordered_map
,速度快了许多(1057ms -> 593ms) 在 cppreference.com 上可以查到: unordered_map 的时间复杂度平均情况下为常数,最坏情况下则与大小成线性[2][3];map 的时间复杂度与容器大小成对数[4][5]。 - 可以使用更快的输入输出方式,如
scanf
printf
或自己的快读快写。
#代码
也可在 GitHub 上查看最新更新。
1 |
|
#参考资料
[1] std::map<Key,T,Compare,Allocator>::count - cppreference [2] std::unordered_map<Key,T,Hash,KeyEqual,Allocator>::operator[] - cppreference [3] std::unordered_map<Key,T,Hash,KeyEqual,Allocator>::count - cppreference [4] std::map<Key,T,Compare,Allocator>::operator[] - cppreference [5] std::map<Key,T,Compare,Allocator>::count - cppreference