けんちょんの競プロ精進記録

競プロの精進記録や小ネタを書いていきます

AtCoder ABC 380 E - 1D Bucket Tool (1D, 水色, 450 点)

遅延評価セグメント木と、その max_right, min_left で殴った!

問題概要

マス  1, 2, \dots, N が一列に並んでいて、それぞれ色  1, 2, \dots, N で塗られている。次の  Q 回のクエリに答えよ。

  • クエリタイプ 1:マス  x と色  c が指定されるので、マス  x から始めて「いまいるマスと同じ色に塗られている隣接するマス」への移動を繰り返すことで到達可能なマスを全て色  c に塗り替える
  • クエリタイプ 2:色  c で塗られているマスの個数を答える

制約

  •  1 \le N \le 5 \times 10^{5}
  •  1 \le Q \le 2 \times 10^{5}

考えたこと:遅延評価セグメント木で殴る

次のことができる遅延評価セグメント木で解いた。

  • 区間の「最大値・最小値」を取得する
  • 区間の値をすべて  c に書き換える

この遅延評価セグメント木を用いると、クエリタイプ 1 は次のようにできる。なお、クエリ開始時のマス  x の色を  p とする。

  • 区間  \lbrack l, x) の色がすべて  p であるような最小の  l を求める(min_left を使う)
  • 区間  \lbrack x, r) の色がすべて  p であるような最大の  r を求める(max_right を使う)

このとき、区間  \lbrack, l, r) の値をすべて  c に書き換えればよい。

また、クエリタイプ 2 に対処するために、次の配列を用意しておく。


num[c]:色  c のマスの個数


この値はクエリタイプ 1 を実施するたびに容易に更新できる。全体の計算量は  O(N + Q \log N) となる。

コード

#include <bits/stdc++.h>
using namespace std;

// Lazy Segment Tree
template<class Monoid, class Action> struct LazySegmentTree {
    // various function types
    using FuncOperator = function<Monoid(Monoid, Monoid)>;
    using FuncMapping = function<Monoid(Action, Monoid)>;
    using FuncComposition = function<Action(Action, Action)>;

    // core member
    int N;
    FuncOperator OP;
    FuncMapping MAPPING;
    FuncComposition COMPOSITION;
    Monoid IDENTITY_MONOID;
    Action IDENTITY_ACTION;
    
    // inner data
    int log, offset;
    vector<Monoid> dat;
    vector<Action> lazy;
    
    // constructor
    LazySegmentTree() {}
    LazySegmentTree(int n,
                    const FuncOperator op,
                    const FuncMapping mapping,
                    const FuncComposition composition,
                    const Monoid &identity_monoid,
                    const Action &identity_action) {
        init(n, op, mapping, composition, identity_monoid, identity_action);
    }
    LazySegmentTree(const vector<Monoid> &v,
                    const FuncOperator op,
                    const FuncMapping mapping,
                    const FuncComposition composition,
                    const Monoid &identity_monoid,
                    const Action &identity_action) {
        init(v, op, mapping, composition, identity_monoid, identity_action);
    }
    void init(int n,
              const FuncOperator op,
              const FuncMapping mapping,
              const FuncComposition composition,
              const Monoid &identity_monoid,
              const Action &identity_action) {
        N = n, OP = op, MAPPING = mapping, COMPOSITION = composition;
        IDENTITY_MONOID = identity_monoid, IDENTITY_ACTION = identity_action;
        log = 0, offset = 1;
        while (offset < N) ++log, offset <<= 1;
        dat.assign(offset * 2, IDENTITY_MONOID);
        lazy.assign(offset * 2, IDENTITY_ACTION);
    }
    void init(const vector<Monoid> &v,
              const FuncOperator op,
              const FuncMapping mapping,
              const FuncComposition composition,
              const Monoid &identity_monoid,
              const Action &identity_action) {
        init((int)v.size(), op, mapping, composition, identity_monoid, identity_action);
        build(v);
    }
    void build(const vector<Monoid> &v) {
        assert(N == (int)v.size());
        for (int i = 0; i < N; ++i) dat[i + offset] = v[i];
        for (int k = offset - 1; k > 0; --k) pull_dat(k);
    }
    int size() const {
        return N;
    }
    
    // basic functions for lazy segment tree
    void pull_dat(int k) {
        dat[k] = OP(dat[k * 2], dat[k * 2 + 1]);
    }
    void apply_lazy(int k, const Action &f) {
        dat[k] = MAPPING(f, dat[k]);
        if (k < offset) lazy[k] = COMPOSITION(f, lazy[k]);
    }
    void push_lazy(int k) {
        apply_lazy(k * 2, lazy[k]);
        apply_lazy(k * 2 + 1, lazy[k]);
        lazy[k] = IDENTITY_ACTION;
    }
    void pull_dat_deep(int k) {
        for (int h = 1; h <= log; ++h) pull_dat(k >> h);
    }
    void push_lazy_deep(int k) {
        for (int h = log; h >= 1; --h) push_lazy(k >> h);
    }
    
    // setter and getter, update A[i], i is 0-indexed, O(log N)
    void set(int i, const Monoid &v) {
        assert(0 <= i && i < N);
        int k = i + offset;
        push_lazy_deep(k);
        dat[k] = v;
        pull_dat_deep(k);
    }
    Monoid get(int i) {
        assert(0 <= i && i < N);
        int k = i + offset;
        push_lazy_deep(k);
        return dat[k];
    }
    Monoid operator [] (int i) {
        return get(i);
    }
    
    // apply f for index i
    void apply(int i, const Action &f) {
        assert(0 <= i && i < N);
        int k = i + offset;
        push_lazy_deep(k);
        dat[k] = MAPPING(f, dat[k]);
        pull_dat_deep(k);
    }
    // apply f for interval [l, r)
    void apply(int l, int r, const Action &f) {
        assert(0 <= l && l <= r && r <= N);
        if (l == r) return;
        l += offset, r += offset;
        for (int h = log; h >= 1; --h) {
            if (((l >> h) << h) != l) push_lazy(l >> h);
            if (((r >> h) << h) != r) push_lazy((r - 1) >> h);
        }
        int original_l = l, original_r = r;
        for (; l < r; l >>= 1, r >>= 1) {
            if (l & 1) apply_lazy(l++, f);
            if (r & 1) apply_lazy(--r, f);
        }
        l = original_l, r = original_r;
        for (int h = 1; h <= log; ++h) {
            if (((l >> h) << h) != l) pull_dat(l >> h);
            if (((r >> h) << h) != r) pull_dat((r - 1) >> h);
        }
    }
    
    // get prod of interval [l, r)
    Monoid prod(int l, int r) {
        assert(0 <= l && l <= r && r <= N);
        if (l == r) return IDENTITY_MONOID;
        l += offset, r += offset;
        for (int h = log; h >= 1; --h) {
            if (((l >> h) << h) != l) push_lazy(l >> h);
            if (((r >> h) << h) != r) push_lazy(r >> h);
        }
        Monoid val_left = IDENTITY_MONOID, val_right = IDENTITY_MONOID;
        for (; l < r; l >>= 1, r >>= 1) {
            if (l & 1) val_left = OP(val_left, dat[l++]);
            if (r & 1) val_right = OP(dat[--r], val_right);
        }
        return OP(val_left, val_right);
    }
    Monoid all_prod() {
        return dat[1];
    }
    
    // get max r such that f(v) = True (v = prod(l, r)), O(log N)
    // f(IDENTITY) need to be True
    int max_right(const function<bool(Monoid)> f, int l = 0) {
        if (l == N) return N;
        l += offset;
        push_lazy_deep(l);
        Monoid sum = IDENTITY_MONOID;
        do {
            while (l % 2 == 0) l >>= 1;
            if (!f(OP(sum, dat[l]))) {
                while (l < offset) {
                    push_lazy(l);
                    l = l * 2;
                    if (f(OP(sum, dat[l]))) {
                        sum = OP(sum, dat[l]);
                        ++l;
                    }
                }
                return l - offset;
            }
            sum = OP(sum, dat[l]);
            ++l;
        } while ((l & -l) != l);  // stop if l = 2^e
        return N;
    }

    // get min l that f(get(l, r)) = True (0-indexed), O(log N)
    // f(IDENTITY) need to be True
    int min_left(const function<bool(Monoid)> f, int r = -1) {
        if (r == 0) return 0;
        if (r == -1) r = N;
        r += offset;
        push_lazy_deep(r - 1);
        Monoid sum = IDENTITY_MONOID;
        do {
            --r;
            while (r > 1 && (r % 2)) r >>= 1;
            if (!f(OP(dat[r], sum))) {
                while (r < offset) {
                    push_lazy(r);
                    r = r * 2 + 1;
                    if (f(OP(dat[r], sum))) {
                        sum = OP(dat[r], sum);
                        --r;
                    }
                }
                return r + 1 - offset;
            }
            sum = OP(dat[r], sum);
        } while ((r & -r) != r);
        return 0;
    }
    
    // debug stream
    friend ostream& operator << (ostream &s, LazySegmentTree seg) {
        for (int i = 0; i < (int)seg.size(); ++i) {
            s << seg[i];
            if (i != (int)seg.size() - 1) s << " ";
        }
        return s;
    }
    
    // dump
    void dump() {
        for (int i = 0; i <= log; ++i) {
            for (int j = (1 << i); j < (1 << (i + 1)); ++j) {
                cout << "{" << dat[j] << "," << lazy[j] << "} ";
            }
            cout << endl;
        }
    }
};

int main() {
    using pll = pair<long long, long long>;
    const long long INF = 1LL<<60;
    long long N, Q, id, col;
    cin >> N >> Q;

    // 各色が何個ずつあるか
    vector<long long> num(N, 1);
    
    // セグ木を作る
    const pll identity_monoid = {-INF, INF};  // {最大, 最小}
    const long long identity_action = -1;
    auto op = [&](pll x, pll y) { return pll(max(x.first, y.first), min(x.second, y.second)); };
    auto mapping = [&](long long f, pll x) { return (f != identity_action ? pll(f, f) : x); };
    auto composition = [&](long long g, long long f) { return (g != identity_action ? g : f); };
    vector<pll> v(N);
    for (int i = 0; i < N; i++) v[i] = {i, i};
    LazySegmentTree<pll, long long> seg(v, op, mapping, composition, identity_monoid, identity_action);

    // クエリ処理
    while (Q--) {
        long long type;
        cin >> type;
        if (type == 1) {
            cin >> id >> col;
            id--, col--;
            long long cur_col = seg.prod(id, id+1).first;
            auto check = [&](pll val) -> bool { return val.first == cur_col && val.second == cur_col; };
            long long left = seg.min_left(check, id), right = seg.max_right(check, id);
            num[cur_col] -= right - left;
            num[col] += right - left;
            seg.apply(left, right, col);
        } else {
            cin >> col;
            col--;
            cout << num[col] << endl;
        }
    }
}

 

他の解法

公式解説では、もう少しプリミティブなデータ構造を用いる解が示されている。

  • 順序付き集合 (C++ なら set) を用いて、同色の各連結成分の左端の index を管理する方法
  • Union-Find を用いて、各色の連結成分を管理する方法