平面走査の典型問題だけど、とにかく重くて辛かったのと、コーナーケースになかなか気づけなかった。
問題概要
数直線上に 個の区間がある。区間 は である ()。
= 区間 が、与えられた 個の区間のうち何個と交差するか
としたときに、 の範囲で が最大を達成するような (ペア値) の最小値を求めよ。
制約
考えたこと
公式解説では、区間の情報を 2 次元平面上に可視化して考えている。僕は、区間のまま考えていた。それでも結果的に同じ解法にたどり着いたので、メモする。
大まかな方針はこんな感じ。やっていることは「平面走査」に他ならなくて、2 次元平面上に可視化するのと本質的には変わらない。
まず、 の場合について、 に対する の値を求めていく (適宜、座標圧縮する)。
を順次インクリメントしていき、その際に の値を逐次更新していく (多くの場合遅延評価セグメント木で実現できる)。
1 については、 の値が変化する箇所として、次の 2 つに着目すればよい。
- ある区間 の左端に 1 を加えた値
- ある区間 の右端の値
2 の「平面走査」について考える。
平面走査を詰める
2 については、 が変化する瞬間に の値が変化する箇所として、次の 3 つに着目すればよい。
- ある区間 の左端の値
- ある区間 の左端に 1 を加えた値
- ある区間 の右端の値
がインクリメントして、ある区間の左端 に到達する瞬間について
この場合は、区間 がもともと区間 と交差している分が減少する。よって、 について の値を 1 減らせばよい。
たとえば、上図のように、 がインクリメントして区間 の左端 (= 2) に到達するとき、 の値は と比べて 1 減少する。
がインクリメントして、ある区間の左端 + 1 である に到達する瞬間について
この場合は、区間 が新たに区間 と交差する分が増加する。よって、 について の値を 1 増やせばよい。
たとえば、上図のように、 がインクリメントして区間 の左端 + 1 (= 3) に到達するとき、 の値は と比べて 1 増加する。
がインクリメントして、ある区間の右端 に到達する瞬間について
この場合は、区間 がもともと区間 と交差している分が減少する。よって、 について の値を 1 減らせばよい。
たとえば、上図のように、 がインクリメントして区間 の右端 (= 8) に到達するとき、たとえば、上図のように、 がインクリメントして区間 の左端 + 1 (= 3) に到達するとき、 の値は と比べて 1 減少する。
遅延評価セグメント木で実現
ここまでの処理を実現するためには、
- 配列の区間に値を 1 加算したり、1 減算する
- 配列全体の最大値を取得する
という処理を高速に実行したい。これは遅延評価セグメント木を用いて実現できる。
以上の解法は、全体として の計算量となる。
コード
#include <bits/stdc++.h> using namespace std; using pll = pair<long long, long long>; template<class S, class T> inline bool chmax(S &a, T b) { return (a < b ? a = b, 1 : 0); } template<class S, class T> inline bool chmin(S &a, T b) { return (a > b ? a = b, 1 : 0); } // Lazy Segment Tree template<class Monoid, class Action> struct LazySegmentTree { // various function types using FuncMonoid = function<Monoid(Monoid, Monoid)>; using FuncAction = function<Monoid(Action, Monoid)>; using FuncComposition = function<Action(Action, Action)>; // core member int N; FuncMonoid OP; FuncAction ACT; FuncComposition COMP; Monoid IDENTITY_MONOID; Action IDENTITY_ACTION; // inner data int log, offset; vector<Monoid> dat; vector<Action> lazy; // constructor LazySegmentTree() {} LazySegmentTree(int n, const FuncMonoid op, const FuncAction act, const FuncComposition comp, const Monoid &identity_monoid, const Action &identity_action) { init(n, op, act, comp, identity_monoid, identity_action); } LazySegmentTree(const vector<Monoid> &v, const FuncMonoid op, const FuncAction act, const FuncComposition comp, const Monoid &identity_monoid, const Action &identity_action) { init(v, op, act, comp, identity_monoid, identity_action); } void init(int n, const FuncMonoid op, const FuncAction act, const FuncComposition comp, const Monoid &identity_monoid, const Action &identity_action) { N = n, OP = op, ACT = act, COMP = comp; IDENTITY_MONOID = identity_monoid, IDENTITY_ACTION = identity_action; log = 0, offset = 1; while (offset < N) ++log, offset <<= 1; dat.assign(offset * 2, IDENTITY_MONOID); lazy.assign(offset * 2, IDENTITY_ACTION); } void init(const vector<Monoid> &v, const FuncMonoid op, const FuncAction act, const FuncComposition comp, const Monoid &identity_monoid, const Action &identity_action) { init((int)v.size(), op, act, comp, identity_monoid, identity_action); build(v); } void build(const vector<Monoid> &v) { assert(N == (int)v.size()); for (int i = 0; i < N; ++i) dat[i + offset] = v[i]; for (int k = offset - 1; k > 0; --k) pull_dat(k); } void clear() { dat.assign(offset * 2, IDENTITY_MONOID); lazy.assign(offset * 2, IDENTITY_ACTION); } int size() const { return N; } // basic functions for lazy segment tree void pull_dat(int k) { dat[k] = OP(dat[k * 2], dat[k * 2 + 1]); } void apply_lazy(int k, const Action &f) { dat[k] = ACT(f, dat[k]); if (k < offset) lazy[k] = COMP(f, lazy[k]); } void push_lazy(int k) { apply_lazy(k * 2, lazy[k]); apply_lazy(k * 2 + 1, lazy[k]); lazy[k] = IDENTITY_ACTION; } void pull_dat_deep(int k) { for (int h = 1; h <= log; ++h) pull_dat(k >> h); } void push_lazy_deep(int k) { for (int h = log; h >= 1; --h) push_lazy(k >> h); } // setter and getter, update A[i], i is 0-indexed, O(log N) void set(int i, const Monoid &v) { assert(0 <= i && i < N); int k = i + offset; push_lazy_deep(k); dat[k] = v; pull_dat_deep(k); } Monoid get(int i) { assert(0 <= i && i < N); int k = i + offset; push_lazy_deep(k); return dat[k]; } Monoid operator [] (int i) { return get(i); } // apply f for index i void apply(int i, const Action &f) { assert(0 <= i && i < N); int k = i + offset; push_lazy_deep(k); dat[k] = ACT(f, dat[k]); pull_dat_deep(k); } // apply f for interval [l, r) void apply(int l, int r, const Action &f) { assert(0 <= l && l <= r && r <= N); if (l == r) return; l += offset, r += offset; for (int h = log; h >= 1; --h) { if (((l >> h) << h) != l) push_lazy(l >> h); if (((r >> h) << h) != r) push_lazy((r - 1) >> h); } int original_l = l, original_r = r; for (; l < r; l >>= 1, r >>= 1) { if (l & 1) apply_lazy(l++, f); if (r & 1) apply_lazy(--r, f); } l = original_l, r = original_r; for (int h = 1; h <= log; ++h) { if (((l >> h) << h) != l) pull_dat(l >> h); if (((r >> h) << h) != r) pull_dat((r - 1) >> h); } } // get prod of interval [l, r) Monoid prod(int l, int r) { assert(0 <= l && l <= r && r <= N); if (l == r) return IDENTITY_MONOID; l += offset, r += offset; for (int h = log; h >= 1; --h) { if (((l >> h) << h) != l) push_lazy(l >> h); if (((r >> h) << h) != r) push_lazy(r >> h); } Monoid val_left = IDENTITY_MONOID, val_right = IDENTITY_MONOID; for (; l < r; l >>= 1, r >>= 1) { if (l & 1) val_left = OP(val_left, dat[l++]); if (r & 1) val_right = OP(dat[--r], val_right); } return OP(val_left, val_right); } Monoid all_prod() { return dat[1]; } // get max r that f(get(l, r)) = True (0-indexed), O(log N) // f(IDENTITY) need to be True int max_right(const function<bool(Monoid)> f, int l = 0) { if (l == N) return N; l += offset; push_lazy_deep(l); Monoid sum = IDENTITY_MONOID; do { while (l % 2 == 0) l >>= 1; if (!f(OP(sum, dat[l]))) { while (l < offset) { push_lazy(l); l = l * 2; if (f(OP(sum, dat[l]))) { sum = OP(sum, dat[l]); ++l; } } return l - offset; } sum = OP(sum, dat[l]); ++l; } while ((l & -l) != l); // stop if l = 2^e return N; } // get min l that f(get(l, r)) = True (0-indexed), O(log N) // f(IDENTITY) need to be True int min_left(const function<bool(Monoid)> f, int r = -1) { if (r == 0) return 0; if (r == -1) r = N; r += offset; push_lazy_deep(r - 1); Monoid sum = IDENTITY_MONOID; do { --r; while (r > 1 && (r % 2)) r >>= 1; if (!f(OP(dat[r], sum))) { while (r < offset) { push_lazy(r); r = r * 2 + 1; if (f(OP(dat[r], sum))) { sum = OP(dat[r], sum); --r; } } return r + 1 - offset; } sum = OP(dat[r], sum); } while ((r & -r) != r); return 0; } // debug stream friend ostream& operator << (ostream &s, LazySegmentTree seg) { for (int i = 0; i < (int)seg.size(); ++i) { s << seg[i]; if (i != (int)seg.size() - 1) s << " "; } return s; } // dump void dump() { for (int i = 0; i <= log; ++i) { for (int j = (1 << i); j < (1 << (i + 1)); ++j) { cout << "{" << dat[j] << "," << lazy[j] << "} "; } cout << endl; } } }; int main() { const long long INF = 1LL<<60, LIM = 1000000000; // 各区間を座標圧縮 int N; cin >> N; vector<long long> L(N), R(N), comp({-1, 0}); for (int id = 0; id < N; ++id) { cin >> L[id] >> R[id]; comp.push_back(L[id]), comp.push_back(L[id] + 1); comp.push_back(R[id] - 1), comp.push_back(R[id]); if (R[id] + 1 <= LIM) comp.push_back(R[id] + 1); } sort(comp.begin(), comp.end()); comp.erase(unique(comp.begin(), comp.end()), comp.end()); for (int id = 0; id < N; ++id) { L[id] = lower_bound(comp.begin(), comp.end(), L[id]) - comp.begin(); R[id] = lower_bound(comp.begin(), comp.end(), R[id]) - comp.begin(); } // l = -1 のときの各 r に対する f(l, r) の値を求める vector<pll> A(comp.size(), pll(0, 0)); vector<long long> adds(comp.size(), 0); for (int id = 0; id < N; ++id) ++adds[L[id] + 1], --adds[R[id]]; for (int x = 1; x < comp.size(); ++x) A[x] = pll(A[x-1].first + adds[x], -x); // セグメント木の設定 auto op = [&](pll x, pll y) { return max(x, y); }; auto act = [&](long long f, pll x) { return pll(x.first + f, x.second); }; auto composition = [&](long long g, long long f) { return g + f; }; LazySegmentTree<pll, long long> seg(A, op, act, composition, pll(-INF, -INF), 0); // l を順に進めたときの f(l, r) の変化を平面走査していく // 0: l がある区間の左端、1: l がある区間の左端 + 1、2: l がある区間の右端、-1: 無効 vector<vector<pll>> events(comp.size()); for (int id = 0; id < N; ++id) { events[L[id]].emplace_back(0, id); events[L[id] + 1].emplace_back(1, id); events[R[id]].emplace_back(2, id); } long long M = 0; pll res({0, 1}); for (int l = 0; l < comp.size(); ++l) { for (auto [type, id] : events[l]) { if (type == 0) { seg.apply(L[id] + 1, R[id], -1); } else if (type == 1) { seg.apply(R[id] + 1, seg.size(), 1); } else if (type == 2) { seg.apply(R[id] + 1, seg.size(), -1); } } if (comp[l] >= 0) { auto node = seg.all_prod(); pll koho = pll(comp[l], max(comp[-node.second], 1LL)); if (chmax(M, node.first)) res = koho; else if (M == node.first) chmin(res, koho); } } cout << res.first << " " << res.second << endl; }