けんちょんの競プロ精進記録

競プロの精進記録や小ネタを書いていきます

AtCoder ABC 360 F - InterSections (3D, 橙色, 550 点)

平面走査の典型問題だけど、とにかく重くて辛かったのと、コーナーケースになかなか気づけなかった。

問題概要

数直線上に  N 個の区間がある。区間  i \lbrack L_{i}, R_{i} \rbrack である ( 0 \le L_{i} \lt R_{i} \le 10^{9})。

 f(l, r) = 区間  \lbrack l, r \rbrack が、与えられた  N 個の区間のうち何個と交差するか

としたときに、 0 \le l \lt r \le 10^{9} の範囲で  f(l, r) が最大を達成するような  (l, r) (ペア値) の最小値を求めよ。

制約

  •  1 \le N \le 10^{5}
  •  0 \le L_{i} \lt R_{i} \le 10^{9}

 

考えたこと

公式解説では、区間の情報を 2 次元平面上に可視化して考えている。僕は、区間のまま考えていた。それでも結果的に同じ解法にたどり着いたので、メモする。

大まかな方針はこんな感じ。やっていることは「平面走査」に他ならなくて、2 次元平面上に可視化するのと本質的には変わらない。


  1. まず、 l = -1 の場合について、 r = 0, 1, \dots, 10^{9} に対する  f(l, r) の値を求めていく (適宜、座標圧縮する)。

  2.  l を順次インクリメントしていき、その際に  f(l, r) の値を逐次更新していく (多くの場合遅延評価セグメント木で実現できる)。


1 については、 r の値が変化する箇所として、次の 2 つに着目すればよい。

  • ある区間  \lbrack L_{i}, R_{i} \rbrack の左端に 1 を加えた値  L_{i} + 1
  • ある区間  \lbrack L_{i}, R_{i} \rbrack の右端の値  R_{i}

2 の「平面走査」について考える。

 

平面走査を詰める

2 については、 l が変化する瞬間に  f(l, r) の値が変化する箇所として、次の 3 つに着目すればよい。

  • ある区間  \lbrack L_{i}, R_{i} \rbrack の左端の値  L_{i}
  • ある区間  \lbrack L_{i}, R_{i} \rbrack の左端に 1 を加えた値  L_{i} + 1
  • ある区間  \lbrack L_{i}, R_{i} \rbrack の右端の値  R_{i}

 l がインクリメントして、ある区間の左端  L_{i} に到達する瞬間について

この場合は、区間  \lbrack l, r \rbrack がもともと区間  \lbrack L_{i}, R_{i} \rbrack と交差している分が減少する。よって、 r = L_{i} + 1, L_{i} + 2, \dots, R_{i} - 1 について  f(l, r) の値を 1 減らせばよい。

たとえば、上図のように、 l がインクリメントして区間  \lbrack 2, 8 \rbrack の左端 (= 2) に到達するとき、 f(2, 3), f(2, 4), \dots, f(2, 7) の値は  f(1, 3), f(1, 4), \dots, f(1, 7) と比べて 1 減少する。

 l がインクリメントして、ある区間の左端 + 1 である  L_{i} + 1 に到達する瞬間について

この場合は、区間  \lbrack l, r \rbrack が新たに区間  \lbrack L_{i}, R_{i} \rbrack と交差する分が増加する。よって、 r = R_{i} + 1, R_{i} + 2, \dots について  f(l, r) の値を 1 増やせばよい。

たとえば、上図のように、 l がインクリメントして区間  \lbrack 2, 8 \rbrack の左端 + 1 (= 3) に到達するとき、 f(2, 9), f(2, 10), \dots の値は  f(1, 9), f(1, 10), \dots と比べて 1 増加する。

 l がインクリメントして、ある区間の右端  R_{i} に到達する瞬間について

この場合は、区間  \lbrack l, r \rbrack がもともと区間  \lbrack L_{i}, R_{i} \rbrack と交差している分が減少する。よって、 r = R_{i} + 1, R_{i} + 2, \dots について  f(l, r) の値を 1 減らせばよい。

たとえば、上図のように、 l がインクリメントして区間  \lbrack 2, 8 \rbrack の右端 (= 8) に到達するとき、たとえば、上図のように、 l がインクリメントして区間  \lbrack 2, 8 \rbrack の左端 + 1 (= 3) に到達するとき、 f(8, 9), f(8, 10), \dots の値は  f(7, 9), f(7, 10), \dots と比べて 1 減少する。

遅延評価セグメント木で実現

ここまでの処理を実現するためには、

  • 配列の区間に値を 1 加算したり、1 減算する
  • 配列全体の最大値を取得する

という処理を高速に実行したい。これは遅延評価セグメント木を用いて実現できる。

以上の解法は、全体として  O(N \log N) の計算量となる。

コード

#include <bits/stdc++.h>
using namespace std;
using pll = pair<long long, long long>;
template<class S, class T> inline bool chmax(S &a, T b) { return (a < b ? a = b, 1 : 0); }
template<class S, class T> inline bool chmin(S &a, T b) { return (a > b ? a = b, 1 : 0); }

// Lazy Segment Tree
template<class Monoid, class Action> struct LazySegmentTree {
    // various function types
    using FuncMonoid = function<Monoid(Monoid, Monoid)>;
    using FuncAction = function<Monoid(Action, Monoid)>;
    using FuncComposition = function<Action(Action, Action)>;

    // core member
    int N;
    FuncMonoid OP;
    FuncAction ACT;
    FuncComposition COMP;
    Monoid IDENTITY_MONOID;
    Action IDENTITY_ACTION;
    
    // inner data
    int log, offset;
    vector<Monoid> dat;
    vector<Action> lazy;
    
    // constructor
    LazySegmentTree() {}
    LazySegmentTree(int n, const FuncMonoid op, const FuncAction act, const FuncComposition comp,
                    const Monoid &identity_monoid, const Action &identity_action) {
        init(n, op, act, comp, identity_monoid, identity_action);
    }
    LazySegmentTree(const vector<Monoid> &v,
                    const FuncMonoid op, const FuncAction act, const FuncComposition comp,
                    const Monoid &identity_monoid, const Action &identity_action) {
        init(v, op, act, comp, identity_monoid, identity_action);
    }
    void init(int n, const FuncMonoid op, const FuncAction act, const FuncComposition comp,
              const Monoid &identity_monoid, const Action &identity_action) {
        N = n, OP = op, ACT = act, COMP = comp;
        IDENTITY_MONOID = identity_monoid, IDENTITY_ACTION = identity_action;
        log = 0, offset = 1;
        while (offset < N) ++log, offset <<= 1;
        dat.assign(offset * 2, IDENTITY_MONOID);
        lazy.assign(offset * 2, IDENTITY_ACTION);
    }
    void init(const vector<Monoid> &v,
              const FuncMonoid op, const FuncAction act, const FuncComposition comp,
              const Monoid &identity_monoid, const Action &identity_action) {
        init((int)v.size(), op, act, comp, identity_monoid, identity_action);
        build(v);
    }
    void build(const vector<Monoid> &v) {
        assert(N == (int)v.size());
        for (int i = 0; i < N; ++i) dat[i + offset] = v[i];
        for (int k = offset - 1; k > 0; --k) pull_dat(k);
    }
    void clear() {
        dat.assign(offset * 2, IDENTITY_MONOID);
        lazy.assign(offset * 2, IDENTITY_ACTION);
    }
    int size() const {
        return N;
    }
    
    // basic functions for lazy segment tree
    void pull_dat(int k) {
        dat[k] = OP(dat[k * 2], dat[k * 2 + 1]);
    }
    void apply_lazy(int k, const Action &f) {
        dat[k] = ACT(f, dat[k]);
        if (k < offset) lazy[k] = COMP(f, lazy[k]);
    }
    void push_lazy(int k) {
        apply_lazy(k * 2, lazy[k]);
        apply_lazy(k * 2 + 1, lazy[k]);
        lazy[k] = IDENTITY_ACTION;
    }
    void pull_dat_deep(int k) {
        for (int h = 1; h <= log; ++h) pull_dat(k >> h);
    }
    void push_lazy_deep(int k) {
        for (int h = log; h >= 1; --h) push_lazy(k >> h);
    }
    
    // setter and getter, update A[i], i is 0-indexed, O(log N)
    void set(int i, const Monoid &v) {
        assert(0 <= i && i < N);
        int k = i + offset;
        push_lazy_deep(k);
        dat[k] = v;
        pull_dat_deep(k);
    }
    Monoid get(int i) {
        assert(0 <= i && i < N);
        int k = i + offset;
        push_lazy_deep(k);
        return dat[k];
    }
    Monoid operator [] (int i) {
        return get(i);
    }
    
    // apply f for index i
    void apply(int i, const Action &f) {
        assert(0 <= i && i < N);
        int k = i + offset;
        push_lazy_deep(k);
        dat[k] = ACT(f, dat[k]);
        pull_dat_deep(k);
    }
    // apply f for interval [l, r)
    void apply(int l, int r, const Action &f) {
        assert(0 <= l && l <= r && r <= N);
        if (l == r) return;
        l += offset, r += offset;
        for (int h = log; h >= 1; --h) {
            if (((l >> h) << h) != l) push_lazy(l >> h);
            if (((r >> h) << h) != r) push_lazy((r - 1) >> h);
        }
        int original_l = l, original_r = r;
        for (; l < r; l >>= 1, r >>= 1) {
            if (l & 1) apply_lazy(l++, f);
            if (r & 1) apply_lazy(--r, f);
        }
        l = original_l, r = original_r;
        for (int h = 1; h <= log; ++h) {
            if (((l >> h) << h) != l) pull_dat(l >> h);
            if (((r >> h) << h) != r) pull_dat((r - 1) >> h);
        }
    }
    
    // get prod of interval [l, r)
    Monoid prod(int l, int r) {
        assert(0 <= l && l <= r && r <= N);
        if (l == r) return IDENTITY_MONOID;
        l += offset, r += offset;
        for (int h = log; h >= 1; --h) {
            if (((l >> h) << h) != l) push_lazy(l >> h);
            if (((r >> h) << h) != r) push_lazy(r >> h);
        }
        Monoid val_left = IDENTITY_MONOID, val_right = IDENTITY_MONOID;
        for (; l < r; l >>= 1, r >>= 1) {
            if (l & 1) val_left = OP(val_left, dat[l++]);
            if (r & 1) val_right = OP(dat[--r], val_right);
        }
        return OP(val_left, val_right);
    }
    Monoid all_prod() {
        return dat[1];
    }
    
    // get max r that f(get(l, r)) = True (0-indexed), O(log N)
    // f(IDENTITY) need to be True
    int max_right(const function<bool(Monoid)> f, int l = 0) {
        if (l == N) return N;
        l += offset;
        push_lazy_deep(l);
        Monoid sum = IDENTITY_MONOID;
        do {
            while (l % 2 == 0) l >>= 1;
            if (!f(OP(sum, dat[l]))) {
                while (l < offset) {
                    push_lazy(l);
                    l = l * 2;
                    if (f(OP(sum, dat[l]))) {
                        sum = OP(sum, dat[l]);
                        ++l;
                    }
                }
                return l - offset;
            }
            sum = OP(sum, dat[l]);
            ++l;
        } while ((l & -l) != l);  // stop if l = 2^e
        return N;
    }

    // get min l that f(get(l, r)) = True (0-indexed), O(log N)
    // f(IDENTITY) need to be True
    int min_left(const function<bool(Monoid)> f, int r = -1) {
        if (r == 0) return 0;
        if (r == -1) r = N;
        r += offset;
        push_lazy_deep(r - 1);
        Monoid sum = IDENTITY_MONOID;
        do {
            --r;
            while (r > 1 && (r % 2)) r >>= 1;
            if (!f(OP(dat[r], sum))) {
                while (r < offset) {
                    push_lazy(r);
                    r = r * 2 + 1;
                    if (f(OP(dat[r], sum))) {
                        sum = OP(dat[r], sum);
                        --r;
                    }
                }
                return r + 1 - offset;
            }
            sum = OP(dat[r], sum);
        } while ((r & -r) != r);
        return 0;
    }
    
    // debug stream
    friend ostream& operator << (ostream &s, LazySegmentTree seg) {
        for (int i = 0; i < (int)seg.size(); ++i) {
            s << seg[i];
            if (i != (int)seg.size() - 1) s << " ";
        }
        return s;
    }
    
    // dump
    void dump() {
        for (int i = 0; i <= log; ++i) {
            for (int j = (1 << i); j < (1 << (i + 1)); ++j) {
                cout << "{" << dat[j] << "," << lazy[j] << "} ";
            }
            cout << endl;
        }
    }
};

int main() {
    const long long INF = 1LL<<60, LIM = 1000000000;
    
    // 各区間を座標圧縮
    int N;
    cin >> N;
    vector<long long> L(N), R(N), comp({-1, 0});
    for (int id = 0; id < N; ++id) {
        cin >> L[id] >> R[id];
        comp.push_back(L[id]), comp.push_back(L[id] + 1);
        comp.push_back(R[id] - 1), comp.push_back(R[id]);
        if (R[id] + 1 <= LIM) comp.push_back(R[id] + 1);
    }
    sort(comp.begin(), comp.end());
    comp.erase(unique(comp.begin(), comp.end()), comp.end());
    for (int id = 0; id < N; ++id) {
        L[id] = lower_bound(comp.begin(), comp.end(), L[id]) - comp.begin();
        R[id] = lower_bound(comp.begin(), comp.end(), R[id]) - comp.begin();
    }
    
    // l = -1 のときの各 r に対する f(l, r) の値を求める
    vector<pll> A(comp.size(), pll(0, 0));
    vector<long long> adds(comp.size(), 0);
    for (int id = 0; id < N; ++id) ++adds[L[id] + 1], --adds[R[id]];
    for (int x = 1; x < comp.size(); ++x) A[x] = pll(A[x-1].first + adds[x], -x);
    
    // セグメント木の設定
    auto op = [&](pll x, pll y) { return max(x, y); };
    auto act = [&](long long f, pll x) { return pll(x.first + f, x.second); };
    auto composition = [&](long long g, long long f) { return g + f; };
    LazySegmentTree<pll, long long> seg(A, op, act, composition, pll(-INF, -INF), 0);
    
    // l を順に進めたときの f(l, r) の変化を平面走査していく
    // 0: l がある区間の左端、1: l がある区間の左端 + 1、2: l がある区間の右端、-1: 無効
    vector<vector<pll>> events(comp.size());
    for (int id = 0; id < N; ++id) {
        events[L[id]].emplace_back(0, id);
        events[L[id] + 1].emplace_back(1, id);
        events[R[id]].emplace_back(2, id);
    }
    long long M = 0;
    pll res({0, 1});
    for (int l = 0; l < comp.size(); ++l) {
        for (auto [type, id] : events[l]) {
            if (type == 0) {
                seg.apply(L[id] + 1, R[id], -1);
            } else if (type == 1) {
                seg.apply(R[id] + 1, seg.size(), 1);
            } else if (type == 2) {
                seg.apply(R[id] + 1, seg.size(), -1);
            }
        }
        if (comp[l] >= 0) {
            auto node = seg.all_prod();
            pll koho = pll(comp[l], max(comp[-node.second], 1LL));
            if (chmax(M, node.first)) res = koho;
            else if (M == node.first) chmin(res, koho);
        }
    }
    cout << res.first << " " << res.second << endl;
}