遅延評価セグメント木と、その max_right
, min_left
で殴った!
問題概要
マス が一列に並んでいて、それぞれ色 で塗られている。次の 回のクエリに答えよ。
- クエリタイプ 1:マス と色 が指定されるので、マス から始めて「いまいるマスと同じ色に塗られている隣接するマス」への移動を繰り返すことで到達可能なマスを全て色 に塗り替える
- クエリタイプ 2:色 で塗られているマスの個数を答える
制約
考えたこと:遅延評価セグメント木で殴る
次のことができる遅延評価セグメント木で解いた。
- 区間の「最大値・最小値」を取得する
- 区間の値をすべて に書き換える
この遅延評価セグメント木を用いると、クエリタイプ 1 は次のようにできる。なお、クエリ開始時のマス の色を とする。
- 区間 の色がすべて であるような最小の を求める(
min_left
を使う) - 区間 の色がすべて であるような最大の を求める(
max_right
を使う)
このとき、区間 の値をすべて に書き換えればよい。
また、クエリタイプ 2 に対処するために、次の配列を用意しておく。
num[c]
:色 のマスの個数
この値はクエリタイプ 1 を実施するたびに容易に更新できる。全体の計算量は となる。
コード
#include <bits/stdc++.h> using namespace std; // Lazy Segment Tree template<class Monoid, class Action> struct LazySegmentTree { // various function types using FuncOperator = function<Monoid(Monoid, Monoid)>; using FuncMapping = function<Monoid(Action, Monoid)>; using FuncComposition = function<Action(Action, Action)>; // core member int N; FuncOperator OP; FuncMapping MAPPING; FuncComposition COMPOSITION; Monoid IDENTITY_MONOID; Action IDENTITY_ACTION; // inner data int log, offset; vector<Monoid> dat; vector<Action> lazy; // constructor LazySegmentTree() {} LazySegmentTree(int n, const FuncOperator op, const FuncMapping mapping, const FuncComposition composition, const Monoid &identity_monoid, const Action &identity_action) { init(n, op, mapping, composition, identity_monoid, identity_action); } LazySegmentTree(const vector<Monoid> &v, const FuncOperator op, const FuncMapping mapping, const FuncComposition composition, const Monoid &identity_monoid, const Action &identity_action) { init(v, op, mapping, composition, identity_monoid, identity_action); } void init(int n, const FuncOperator op, const FuncMapping mapping, const FuncComposition composition, const Monoid &identity_monoid, const Action &identity_action) { N = n, OP = op, MAPPING = mapping, COMPOSITION = composition; IDENTITY_MONOID = identity_monoid, IDENTITY_ACTION = identity_action; log = 0, offset = 1; while (offset < N) ++log, offset <<= 1; dat.assign(offset * 2, IDENTITY_MONOID); lazy.assign(offset * 2, IDENTITY_ACTION); } void init(const vector<Monoid> &v, const FuncOperator op, const FuncMapping mapping, const FuncComposition composition, const Monoid &identity_monoid, const Action &identity_action) { init((int)v.size(), op, mapping, composition, identity_monoid, identity_action); build(v); } void build(const vector<Monoid> &v) { assert(N == (int)v.size()); for (int i = 0; i < N; ++i) dat[i + offset] = v[i]; for (int k = offset - 1; k > 0; --k) pull_dat(k); } int size() const { return N; } // basic functions for lazy segment tree void pull_dat(int k) { dat[k] = OP(dat[k * 2], dat[k * 2 + 1]); } void apply_lazy(int k, const Action &f) { dat[k] = MAPPING(f, dat[k]); if (k < offset) lazy[k] = COMPOSITION(f, lazy[k]); } void push_lazy(int k) { apply_lazy(k * 2, lazy[k]); apply_lazy(k * 2 + 1, lazy[k]); lazy[k] = IDENTITY_ACTION; } void pull_dat_deep(int k) { for (int h = 1; h <= log; ++h) pull_dat(k >> h); } void push_lazy_deep(int k) { for (int h = log; h >= 1; --h) push_lazy(k >> h); } // setter and getter, update A[i], i is 0-indexed, O(log N) void set(int i, const Monoid &v) { assert(0 <= i && i < N); int k = i + offset; push_lazy_deep(k); dat[k] = v; pull_dat_deep(k); } Monoid get(int i) { assert(0 <= i && i < N); int k = i + offset; push_lazy_deep(k); return dat[k]; } Monoid operator [] (int i) { return get(i); } // apply f for index i void apply(int i, const Action &f) { assert(0 <= i && i < N); int k = i + offset; push_lazy_deep(k); dat[k] = MAPPING(f, dat[k]); pull_dat_deep(k); } // apply f for interval [l, r) void apply(int l, int r, const Action &f) { assert(0 <= l && l <= r && r <= N); if (l == r) return; l += offset, r += offset; for (int h = log; h >= 1; --h) { if (((l >> h) << h) != l) push_lazy(l >> h); if (((r >> h) << h) != r) push_lazy((r - 1) >> h); } int original_l = l, original_r = r; for (; l < r; l >>= 1, r >>= 1) { if (l & 1) apply_lazy(l++, f); if (r & 1) apply_lazy(--r, f); } l = original_l, r = original_r; for (int h = 1; h <= log; ++h) { if (((l >> h) << h) != l) pull_dat(l >> h); if (((r >> h) << h) != r) pull_dat((r - 1) >> h); } } // get prod of interval [l, r) Monoid prod(int l, int r) { assert(0 <= l && l <= r && r <= N); if (l == r) return IDENTITY_MONOID; l += offset, r += offset; for (int h = log; h >= 1; --h) { if (((l >> h) << h) != l) push_lazy(l >> h); if (((r >> h) << h) != r) push_lazy(r >> h); } Monoid val_left = IDENTITY_MONOID, val_right = IDENTITY_MONOID; for (; l < r; l >>= 1, r >>= 1) { if (l & 1) val_left = OP(val_left, dat[l++]); if (r & 1) val_right = OP(dat[--r], val_right); } return OP(val_left, val_right); } Monoid all_prod() { return dat[1]; } // get max r such that f(v) = True (v = prod(l, r)), O(log N) // f(IDENTITY) need to be True int max_right(const function<bool(Monoid)> f, int l = 0) { if (l == N) return N; l += offset; push_lazy_deep(l); Monoid sum = IDENTITY_MONOID; do { while (l % 2 == 0) l >>= 1; if (!f(OP(sum, dat[l]))) { while (l < offset) { push_lazy(l); l = l * 2; if (f(OP(sum, dat[l]))) { sum = OP(sum, dat[l]); ++l; } } return l - offset; } sum = OP(sum, dat[l]); ++l; } while ((l & -l) != l); // stop if l = 2^e return N; } // get min l that f(get(l, r)) = True (0-indexed), O(log N) // f(IDENTITY) need to be True int min_left(const function<bool(Monoid)> f, int r = -1) { if (r == 0) return 0; if (r == -1) r = N; r += offset; push_lazy_deep(r - 1); Monoid sum = IDENTITY_MONOID; do { --r; while (r > 1 && (r % 2)) r >>= 1; if (!f(OP(dat[r], sum))) { while (r < offset) { push_lazy(r); r = r * 2 + 1; if (f(OP(dat[r], sum))) { sum = OP(dat[r], sum); --r; } } return r + 1 - offset; } sum = OP(dat[r], sum); } while ((r & -r) != r); return 0; } // debug stream friend ostream& operator << (ostream &s, LazySegmentTree seg) { for (int i = 0; i < (int)seg.size(); ++i) { s << seg[i]; if (i != (int)seg.size() - 1) s << " "; } return s; } // dump void dump() { for (int i = 0; i <= log; ++i) { for (int j = (1 << i); j < (1 << (i + 1)); ++j) { cout << "{" << dat[j] << "," << lazy[j] << "} "; } cout << endl; } } }; int main() { using pll = pair<long long, long long>; const long long INF = 1LL<<60; long long N, Q, id, col; cin >> N >> Q; // 各色が何個ずつあるか vector<long long> num(N, 1); // セグ木を作る const pll identity_monoid = {-INF, INF}; // {最大, 最小} const long long identity_action = -1; auto op = [&](pll x, pll y) { return pll(max(x.first, y.first), min(x.second, y.second)); }; auto mapping = [&](long long f, pll x) { return (f != identity_action ? pll(f, f) : x); }; auto composition = [&](long long g, long long f) { return (g != identity_action ? g : f); }; vector<pll> v(N); for (int i = 0; i < N; i++) v[i] = {i, i}; LazySegmentTree<pll, long long> seg(v, op, mapping, composition, identity_monoid, identity_action); // クエリ処理 while (Q--) { long long type; cin >> type; if (type == 1) { cin >> id >> col; id--, col--; long long cur_col = seg.prod(id, id+1).first; auto check = [&](pll val) -> bool { return val.first == cur_col && val.second == cur_col; }; long long left = seg.min_left(check, id), right = seg.max_right(check, id); num[cur_col] -= right - left; num[col] += right - left; seg.apply(left, right, col); } else { cin >> col; col--; cout << num[col] << endl; } } }
他の解法
公式解説では、もう少しプリミティブなデータ構造を用いる解が示されている。
- 順序付き集合 (C++ なら
set
) を用いて、同色の各連結成分の左端の index を管理する方法 - Union-Find を用いて、各色の連結成分を管理する方法