Every content here is my original work.Creative Commons Licence
Universitas Scripta is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 3.0 Unported License.
Your cookies may be used by Google and mathjax. See Google's privacy policy.

Monday, 3 June 2024

Intersections and Proximities of p-planes.

 In \(D\)-dimensions, \(p_1\)-plane and \(p_2\)-plane has intersection of \((D-p_1-p_2)\)-plane at least or with more dimensions. If \(D-p_1-p_2 <0\), they can have 0 to \(\mathrm{min}\{p_1,p_2\}\) dimension proximity object or intersections. (i.e. no intersection guaranteed). This is because parameter of each dimension of plane gives constraint to the \(D\)-dimensional coordinate equation.

The two objects may be written by

\[\vec{x}(a) = \vec{v}_0 + \sum_{k=1}^{p_1}a_k \vec{v}_k,\]

\[\vec{y}(b) = \vec{w}_0 + \sum_{k=1}^{p_2}b_k \vec{w}_k.\]


The proximity or intersection maybe given by

\[\mathrm{min}\left|\vec{x} - \vec{y}\right|,\]

which may be represented by this extrema equation:

\[\begin{cases}
0=\frac{\partial}{\partial a_k}\left|\vec{x} - \vec{y}\right|^2 = 2\left(\vec{x} - \vec{y}\right)\cdot\frac{\partial}{\partial a_k}\left(\vec{x} - \vec{y}\right)= 2\left(\vec{x} - \vec{y}\right)\cdot\frac{\partial \vec{x}}{\partial a_k}
\\
0\frac{\partial}{\partial b_k}\left|\vec{x} - \vec{y}\right|^2 = 2\left(\vec{x} - \vec{y}\right)\cdot\frac{\partial}{\partial b_k}\left(\vec{x} - \vec{y}\right) = -2\left(\vec{x} - \vec{y}\right)\cdot\frac{\partial \vec{y}}{\partial b_k}
\end{cases}\]

\[\Rightarrow\begin{cases}
0=\left(\vec{x} - \vec{y}\right)\cdot\frac{\partial \vec{x}}{\partial a_k}=\vec{v}_k\cdot\left(\vec{x} - \vec{y}\right)
\\
0=\left(\vec{x} - \vec{y}\right)\cdot\frac{\partial \vec{y}}{\partial b_k}=\vec{w}_k\cdot\left(\vec{x} - \vec{y}\right)
\end{cases}\]

\[\Rightarrow\begin{cases}
0=\vec{v}_k\cdot\left(\vec{x} - \vec{y}\right) =\vec{v}_k \cdot\left( \vec{v}_0 - \vec{w}_0\right) + \sum_{l=1}^{p_1}\vec{v}_k\cdot\vec{v}_l a_l - \sum_{l=1}^{p_1}\vec{v}_k\cdot\vec{w}_l b_l
\\
0=-\vec{w}_k\cdot\left(\vec{x} - \vec{y}\right) =-\vec{w}_k \cdot\left( \vec{v}_0 - \vec{w}_0\right) - \sum_{l=1}^{p_2}\vec{w}_k\cdot\vec{v}_l a_l+ \sum_{l=1}^{p_2}\vec{w}_k\cdot\vec{w}_l b_l
\end{cases}\]

The equations may be re-written by

\[\begin{pmatrix}*&*&*\\\vec{v}_k\cdot\left( \vec{v}_0 - \vec{w}_0\right)&\vec{v}_k\cdot\vec{v}_l&-\vec{v}_k\cdot\vec{w}_l \\-\vec{w}_k\cdot\left( \vec{v}_0 - \vec{w}_0\right)&-\vec{w}_k\cdot\vec{v}_l&\vec{w}_k\cdot\vec{w}_l\end{pmatrix}\begin{pmatrix}1 \\ a_l \\ b_l \end{pmatrix}=\begin{pmatrix}* \\ 0 \\ 0 \end{pmatrix}\]

or

\[\begin{pmatrix}\vec{v}_k\cdot\vec{v}_l&-\vec{v}_k\cdot\vec{w}_l \\-\vec{w}_k\cdot\vec{v}_l&\vec{w}_k\cdot\vec{w}_l\end{pmatrix}\begin{pmatrix}a_l \\ b_l \end{pmatrix}=\begin{pmatrix} -\vec{v}_k\cdot\left( \vec{v}_0 - \vec{w}_0\right) \\ \vec{w}_k\cdot\left( \vec{v}_0 - \vec{w}_0\right) \end{pmatrix}\]

With convention of column vector \(\vec{v}\)'s, and 

\[{\mathbf{m}_0}_{(D \times 1)} := \vec{v}_0-\vec{w}_0 ,\quad \mathbf{M}_{(D \times (p_1 + p_2))} := \begin{pmatrix} \vec{v}_k & -\vec{w}_k \end{pmatrix},\quad \mathbf{a}_{((p_1 + p_2 )\times 1)}=\begin{pmatrix}a_k \\ b_k \end{pmatrix},\]

the equations will be re-written by

\[ (\mathbf{M}^T \mathbf{M}) \mathbf{a}= -\mathbf{M}^T \mathbf{m}_0. \]

So, the solution of parameters is

\[\mathbf{a}= -(\mathbf{M}^T \mathbf{M})^{-1} \mathbf{M}^T \mathbf{m}_0\]

unless \(\mathbf{M}^T \mathbf{M}\) is singular.


If singular, to separate singular (freed) and non-singular (constraint) components, we need to diagonalize it. We may try SVD to avoid catastrophic result.

\[(\mathbf{M}^T \mathbf{M}) =: \mathbf{U}\mathbf{\Sigma} \mathbf{V}^T\]

where \(U\) and \(V\) are orthogonal (Hermitian) and \(\Sigma\) is a nonnegative diagonal matrix.

The parameters will be rotated by the orthogonal matrices to diagonalize the matrix to see the free variable.

\[\mathbf{U}\mathbf{\Sigma} \mathbf{V}^T\mathbf{a}= - \mathbf{M}^T \mathbf{m}_0 \;\Rightarrow \;\mathbf{\Sigma} \mathbf{V}^T\mathbf{a}= -\mathbf{U}^T \mathbf{M}^T \mathbf{m}_0=: \begin{pmatrix}m_r \\ 0\end{pmatrix}\]

where in the rows with the zero values in \(\Sigma\), the vector component is also zeros, so the solution for that row is indefinite. We know indefinite because it is zero divide by zero.

\[ \mathbf{V}^T\mathbf{a}=\mathbf{\Sigma}^{-1} \begin{pmatrix}m_r \\ z\end{pmatrix} = \begin{pmatrix}\Sigma_r^{-1} m_r \\ 0^{-1} \cdot 0\end{pmatrix}\].

Now, substitute the indefinite numbers to free parameters \(z_i\).

\[ \mathbf{V}^T\mathbf{a}= \begin{pmatrix}\Sigma_r^{-1} m_r \\ z_i\end{pmatrix}\;\Rightarrow \;\mathbf{a}= \mathbf{V}\begin{pmatrix}\Sigma_r^{-1} m_r \\ z_i\end{pmatrix}.\]


Also, we can find the shortest distance using the equation and the solution. The squared distance is

\[\left|\vec{x} - \vec{y}\right|^2 = \left| \mathbf{m}_0 + \mathbf{M} \mathbf{a}\right|^2 = \mathbf{m}_0^T \mathbf{m}_0 +2 \mathbf{a}^T \mathbf{M}^T \mathbf{m}_0  +\mathbf{a}^T \mathbf{M}^T\mathbf{M}\mathbf{a} \]

\[= \mathbf{m}_0^T \mathbf{m}_0 + \mathbf{a}^T \mathbf{M}^T \mathbf{m}_0  = \mathbf{m}_0^T \left(\mathbf{I} - \mathbf{M}(\mathbf{M}^T\mathbf{M})^{-1} \mathbf{M}^T\right)\mathbf{m}_0\]

Saturday, 25 May 2024

Point cloud Similarities

 Point to distribution:

\(\vec{p}=(p_x, p_y) \Rightarrow P(x,y)= \frac{1}{2\pi \sigma_x \sigma_y} \exp\left\{-\frac{x^2}{2\sigma_x^2}-\frac{y^2}{2\sigma_y^2}\right\}\)

\(\vec{p}=\sum_{i=1}^D p^i \hat{e}_i  \Rightarrow P(x^i)= (2\pi)^{-D/2}\left(\prod_{i=1}^D \sigma_{x^i}^{-1}\right) \exp\left\{-\sum_{i=1}^D \frac{{(x^i)}^2}{2{(\sigma_{x^i})}^2}\right\}\)

Correlation Function for between one point distributions:

\(P(x^i; x_0^i) := P(x^i - x_0^i)\)

\(\left<P(x^i)P(x^i; x_0^i)\right> = {(4\pi)}^{-D/2} \left(\prod_{i=1}^D \sigma_{x^i}^{-1}\right) \exp\left\{-\sum_{i=1}^D \frac{{(x_0^i)}^2}{4{(\sigma_{x^i})}^2}\right\} \)

For two point clouds \(\{\vec{p}_i\}\) and \(\{\vec{q}_i\}\),

\(P(x^i;\{\vec{p}_j\}) = \sum_j P(x^i; p_j^i)\)

The correlation of two point clouds is

\(C(\{\vec{p}_j\}, \{\vec{q}_j\}) = \frac{\left<P(x^i;\{\vec{p}_j\})P(x^i;\{\vec{q}_j\}) \right>}{\sqrt{\left<P(x^i;\{\vec{p}_j\}) P(x^i;\{\vec{p}_j\}) \right>\left<P(x^i;\{\vec{q}_j\}) P(x^i;\{\vec{q}_j\}) \right>}}\)

We want to write \(\left<P(x^i;\{\vec{p}_j\}) P(x^i;\{\vec{q}_j\}) \right>\) with \(P(x^i;\{\vec{p}_j\}) = \sum_j P(x^i, p_j^i)\).

\(C'(\{\vec{p}_j\}, \{\vec{q}_j\}):=\left<P(x^i;\{\vec{p}_j\}) P(x^i;\{\vec{q}_j\}) \right>\)
\(\qquad \qquad\qquad = \left< \sum_{j,k} P(x^i; p_j^i) P(x^i; q_k^i) \right>\)
\(\qquad \qquad\qquad \sim\sum_{j,k} \exp\left\{-\sum_{i=1}^D \frac{{(p_j^i - q_k^i)}^2}{4{(\sigma_{x^i})}^2}\right\} \)

To maximize \(C'(\{\vec{p}_j\}, \{\vec{q}_j\})\) by shift of \(q\), we need to \(\frac{d}{d\Delta q^i}C'(\{\vec{p}_j\}, \{\vec{q}_j + \Delta\vec{q}\})\).

\[\frac{d}{d\Delta q^i}C'(\{\vec{p}_j\}, \{\vec{q}_j + \Delta\vec{q}\}) \sim \left. \frac{d}{d\Delta q^i}\sum_{j,k} \exp\left\{-\sum_{i=1}^D \frac{{(p_j^i - q_k^i - \Delta q^i)}^2}{4{(\sigma_{x^i})}^2}\right\} \right|_{\Delta q = 0} \]
\[=\left. -\frac{\sigma_{x^i}^2}{2}\sum_{j,k}(p_j^i - q_k^i - \Delta q^i) \exp\left\{-\sum_{i=1}^D \frac{{(p_j^i - q_k^i - \Delta q^i)}^2}{4{(\sigma_{x^i})}^2}\right\}\right|_{\Delta q = 0} \]
\[= -\frac{\sigma_{x^i}^2}{2}\sum_{j,k}(p_j^i - q_k^i) \exp\left\{-\sum_{i=1}^D \frac{{(p_j^i - q_k^i )}^2}{4{(\sigma_{x^i})}^2}\right\} \]

In the same sense,

\(
\left.\frac{d^2}{{(d\Delta q^i)}^2}C'(\{\vec{p}_j\}, \{\vec{q}_j + \Delta\vec{q}\})\right|_{\Delta q = 0} \)
\[\sim
 \sum_{j,k}\left[\frac{\sigma_{x^i}^4 (p_j^i - q_k^i)^2}{4} + \frac{\sigma_{x^i}^2}{2}\right] \exp\left\{-\sum_{i=1}^D \frac{{(p_j^i - q_k^i )}^2}{4{(\sigma_{x^i})}^2}\right\}
\]

We can do Newton's method using these 1st and 2nd derivatives.

Monday, 20 May 2024

F1 대회의 진짜 문제 (2)

 저번에 영암대회에 대해 말씀드렸다. 입지는 선진국에 비해 나쁘지 않다는 말씀 드렸다. 선진국일수록 유서깊은 곳일수록, 그 역사성과 매력 자체로도 집객이 된다. 후진국이고 모터스포츠기반이 없을 수록 단기적인 흥행을 위해 도시안에 짓는다. 시가지 서킷을 제외하고 입지가 좋은곳이 어디에 있는가. 상하이, 쿠알라룸푸르, 이런 곳만 생각하고 이것이 F1의 정석이라고 생각한다면 한참 잘못 짚은것이다. 이곳들은 확실히 우리보다 F1의 인지도가 높지만 그건 단지 오래 개최했기 때문이라고 생각한다. 이들 나라들에 제대로 된 국내 레이싱 대회 기반이 있나? 이들나라는 아직도 우리나라에 행사개최 노하우를 배우러 오는 곳이다. 우리의 목표는 항상 선진국이 되어야 하고, 선진국을 모델삼아 잘 정착시킨 사례가 일본이라 얘기하고 있는것이다. 이처럼 서킷은 깡촌에 있어서 주변 소도시로는 인원 수용이 안되기 때문에 인근 대도시에 대부분의 관광객이 묵게 되고, 따라서 지역 교통은 행사기간동안 마비가 된다. 일본 그랑프리의 경우, 대부분 나고야에 묵게 되는데, 말이 이동거리가 1시간이지, 대기시간을 생각하면 막차직전에 겨우 돌아오는게 보통이다. 하지만 여러나라에서 온 관광객들이 욕을 하면서도 이 모든 걸 감내하고 즐긴다. 대회 끝나고 월요일까지도 도카이 뿐 아니라 간사이까지 마비가 된다. 우리나라로 치면 전라도 전체가 마비되는 꼴이다. 하지만 우리나라는 인기도 없었고, 위원회에서 셔틀도 확충하여, 정말 F1 팬이라면 크게 부대끼는것 없이 한가롭게 즐길수 있는 개꿀 그랑프리였던것이다.

(모나코의 경우도 말이 니스까지 15분이지, 그 지역의 열차는 '밀린다'. 오늘 도착할지 말지 하는 상황이 빈번하게 벌어진다. 다른 지역도 일단 서킷에서 벗어나는데에 줄을 서야하는 것에는 변함이 없다. 제대로 스케줄을 소화하려면 아침 6시에 나서서 밤 12시에 들어오는 강행군이 필요하다.)

미안하지만 애초에 팬이 아닌 사람의 의견은 신경쓸 필요가 없다. 다른 어떤나라에서도 관심없는 사람은 절대 관심이 없는게 F1이기 때문이다. 결국 팬만을 수요층으로 하고 있기 때문에 어떻게 기존에 존재하던 팬을 잘 끌어모을까 하는 것이 관건이다.

결국 분위기를 잘 끌어내는것이 중요한데, 이 측면에서는 한국대회가 많이 못했다고 다들 입모아서 말한다. 시가지든 어디든 세계 어느 대회에서도 빠짐없이 있는것이 있는데 바로 서포트레이스이다. F1 만큼 로컬 리그를 세계에 알릴 수 있는 장이 없다. 당시 레이스가 아니라 K팝으로 무대가 채워졌다는게 당시 F1팬들 사이에서 불만 사항이었다. 다만, 동남아 팬들은 역시 K팝의 수요가 있었는지, 관객들이 있었고, 당시 싸이 붐이었던지라, 호응이 어느정도 있긴 있었다. 일회성으로 끝났더라면 참 좋았을텐데... 먹거리 부족, 화장실 부족도 여전했고.

인간은 시류에 편승하는 동물이다. 한국 그랑프리는 파란만장한 레이스를 만들어낸 역사적인 공간이었고 트랙도 나쁘지 않았다. 전세계 F1팬들은 지나고 나서야 한국이 좋았다고 그리워한다. 물론 worst track에 꼽힌것은 운영측 태도와 서비스경험에 있다고 생각한다. 틸케 스타일이 지겹다고 하던 2010년대 초반은 지나고 틸케의 흔적도 남지 않게 된 지금의 F1을 보는 지금 세대는 틸케 세대를 클래식이라며 그리워한다. 결국 문화라는 것은 분위기이고, 계속해서 올바른 투자가 이루어졌다면 지금쯤 빛을 발했을 것이다.

당시 진성 F1팬들은 아쉬워하면서도 독단으로 일을 저질러준 전남도지사 덕에 한국에서 F1을 볼 수 있었다며 감사해했다. 왜냐하면 우리나라같은 환경에서는 어떤 일이 있어도 F1을 개최하기 어려운 환경이기 때문이다. 이는 선진국치고는 기형적인 현상이기도 하다. 현대도 F1에 들어올리 만무한 환경이고, 국민들도 그때도 소음문제니 세금 낭비니 하다가 지금도 당시 대회를 단지 비난하기 위한 여론에 올라타 유튜브에서 거친말을 쏟아내고 있다. 다양한 경험을 하지 못하고 그저 본인의 일천한 경험과 편견, 비난하고자 하는 욕구에 힘입어 조금이라도 거슬리는 의견이 있으면 무지성으로 욕할뿐이다. 이러한 에너지가 현재는 '영암 개최는 악, 인천개최는 최선'이라는 형태로 흘러가고 있는 듯 하다. 이에 대해 조심스러운 의견을 게시한 유튜버가 있었는데 다행히도 욕 안먹는것보면 말의 형태가 얼마나 중요한지에 대해 생각하게 하는 측면은 있다.

하지만 현재의 '마녀사냥', '인민재판'하에 조선시대보다도 일상에서 말을 조심해야하는 자기검열의 시대인 요즘, 감히 예견하건데, 이런 비난 세력에 편승하여 인천대회를 개최해봤자 더 크게 망할거다. 아무리 환경이 좋아도 국민적인 다운무드에 이길순 없을거다. 무엇보다 이렇게 자신과 다른 다양한 의견에 적대적인 환경에서는 새로운 스포츠가 들어올 틈이 없을 것이다.

Sunday, 19 May 2024

F1 대회의 진짜 문제

 단점에 대해서 말을 하지 못하게 하는 것도 문제이지만, 진짜 문제와 개선책에 대해서 말하지 않고 그저 비난만 하는 것도 문제라고 본다. 그런 의미에서 F1 영암대회는 진짜 문제에 대한 이야기는 나누어지지 않고 그저 엉뚱한 비난만 당하는 것 같다. 당시 나는 2011~2013년 한국대회를 다녀왔고, 목요일 프로그램이 없는 대회임에도 목요일 답사, 그리고 2014년 사후 답사도 다녀왔다. 관련 관계자와 친분도 있어 내부 사정도 어느 정도 들을 수 있었다. (당시 F1팬은 서로 다 알 수 있을 정도로 소규모였다.) 

나는 한국그랑프리가 부당한 대우를 받고 있다고 본다. 해외에서도 당시 다른 그랑프리에 비해 비슷한 조건에서도 과하게 비난을 받고 있었고, 국내에서도 사람들이 관심이 없다보니 더더욱 비난을 받았다. 그것이 지금까지도 계속되고 있는듯 하다. 대회 준비 측면에서도 주최측이 '자신들이 무엇을 하는지' 전혀 모르고 있다보니 모터스포츠의 부흥을 위한 이벤트 뿐 아니라 사실 기본적인 화장실 문제나 노면 상태 등 기본적인 문제에 대한 인식도 없었다. 그렇긴 하지만, 뜯어놓고 보면 각각의 요소가 다른 그랑프리에 비해 뒤진다고 말하기는 어렵고 오히려 나은 부분도 있었다. 물론 그것들을 합쳐놓았을 때 정말 후져보이는 것은 운영이 잘못하고 있었던 부분이긴 하지만, 사실 가장 큰 공이 있는데, 그건 수익이다.


<출처: 매일경제>

보다시피, 당시 운영측은, 첫 대회 이후 제기된 많은 문제들, 호텔 바가지 문제, 교통 부족문제 등을 파악하고, 모텔 가격 통제, 셔틀버스 운행 등 각고의 노력을 해왔다. 또한, 개최권료 협상 등을 통해서도 적자폭을 계속해서 줄여왔다. 이대로만 개최되었어도 바로 다음 해인 2014년에는 흑자를 기록할 수 있었다. 하지만, 전남도지사 선거와 맞물리고, 이낙연 측이 선거에 'F1은 돈낭비'라는 프레임을 가져옴에 따라, 노력끝에 줄여놓은 개최권료에도 불구하고 취소할 수 밖에 없었다. 사실 이미 2013년 개최 이전에 전남도 측에서는 손을 놓은 듯 하다. 이미 개최 중단 신호는 여기저기서 감지되고 있었다. 여론을 의식한 듯 개최권료를 줄여주면 가능성이 있다는 듯 뉴스를 내보내긴 했지만, 사실상 박준영 도지사의 독단에 의한 사업이라 도지사가 바뀌면 흐지부지될건 불보듯 뻔한 일이었다.

한국 모터스포츠의 진짜 문제는 투자부족이다. 기업도 정부도 밥이 다 될려고 하면 엎어버린다. 그리고 그렇게 되는 이유는 인기부족이다. 국민들이 왜하냐고 아우성을 치니 당연히 하다엎고, 하다엎고, 돈만 낭비되고 거두는 효과가 없다.

당시 한국 그랑프리가 년년 개선되는 점이 없다고 비난하는 사람은 정말 한국 그랑프리를 다녀온 경험이 없는 사람이다. 다녀온 사람이면 분명히 알 수 있다. 매년 접근성이 좋아지고 불편함이 줄어들었다. 와중에 화장실 확충 안되고 사람들 다니는 곳에 잔디없이 흙바닥으로 방치한 것은 분명 문제가 있다.

입지로 비난하는 것도 문제가 있다고 본다. 영암이라는 입지는 다른 서킷에 비해 분명 나쁘지 않았다. 다른 어느 나라에 서킷이 도심에 있는가. 상하이나 세팡 같은 아시아의 신생 서킷이나 입지 좋은 곳에 있지, 유럽이나 일본의 전용 서킷은 하나같이 시골 깡촌에 있다. 왜냐하면 서킷이란것의 기원이 안쓰게 된 공항부지를 개조하거나, 시골길에서 와인딩 하던 코스를 개조한 것이기 때문이다. 이런 경우 근처 소도시의 숙박시설정도는 F1 개최시에 금방 차버리기 때문에 근처 메트로폴리스 규모의 도시가 대부분의 사람들이 묵는 숙박처가 된다. 스즈카의 경우에는 나고야에 대부분이 사람이 '놀랍게도' 묵는다. 그 많은 외국인들이 몸도 옴짝달싹 못하는 지옥철에 구겨넣어져 몇시간을 달린다. 심지어 모나코 그랑프리도, 모나코에 묵을수 있는 사람은 극소수이기 때문에, 근처 니스나 여러 도시에 묵는데, 이때도 그 큰 유럽열차가 만원이라 열차 바깥에 매달리고도 탈 자리가 없어서 택시를 타고 가야할 지경이다.

그에 비하면 한국 그랑프리는 확실히 쾌적했다. 목포에 모텔도 충분했고, 가격에 걸맞지 않게 7,8 만원 주고 모텔에 묵고 싶지 않으면 광주에 묵을 수도 있었다. 광주에서 열차를 타고 목포역에 내리면 셔틀버스가 대기하고 있어서 서킷까지 데려다주었다. 정기편으로는 서킷까지 대중교통이 시골 버스 한 대뿐이라 주최 측에서 대절하는것은 어쩔수 없긴 했지만, 사실 주최측에서도 많이 해준것이다. 세계 어떤나라에서도 무료로 셔틀을 제공해주는 곳이 없다. 주최측에서 제공해주는 임시셔틀이라고 해도 다른 나라에서는 모두 돈을 받는다. 사실 우리나라에서도 돈을 받고 셔틀을 운행하는 것이 맞는것이고, 그렇게 하기 위해서는 전제조건이 하나있는데, 도보로 접근 가능한 거리에 역이 있어야한다. 대불선에 열차를 정차시켰으면 충분히 가능한 일이었는데 그것만이 조금 아쉬운 점이긴 하지만, 무엇보다도 인간의 존엄을 지키면서 편하게 이동할 수 있다는것 자체가 드물게 한국에서만 경험할 수 있는 일이었고, 이는 주최측에서 많은 비용을 써가며 노력한 덕분이라는 것이다. 이동시간도, 스즈카에서 지옥철 1시간, 대기시간 2시간을 겪어보면 광주에서 이동하는 것도 그닥 문제는 안된다. 그럼에도 싸보이고 시설이 안되어있다고 보인다면, 아마 지방도시에 제대로 된 호텔이 없다는게 진짜 문제일 것이다. 다른나라에서는 10만원짜리 모텔도 있고 100만원, 1000만원짜리 호텔도 있다. 우리나라는 숙박시설의 질이 일본보다도 안좋아서, 모텔이나 관광호텔정도만 있고, 정말 고가에 제대로 된 호텔에 묵을 수 있는 경험을 제공해줄수 없다는것이 다른 개최도시와의 큰 차이였다. 솔직히 숙박에 바가지씌우는건 해외가 하면 더 했다. 모텔 바가지 논란 이후에 주최측이 모텔들과 담합하여 낮은 가격에 공급하도록 가격 안정화를 시켰는데, 시즌정가제는 맞는 방향이지만, 높은 가격이 문제가 아니고 숙박의 질이 문제였다. 영암이나 목포등 인근에서는 최소 10만원짜리 숙박의 질을 유지하면서 100만원 정도 받고, 광주에서는 비교적 저렴하게 묵을수 있게 하는게 맞는 선택이었는데, 목포에 2만원도 안하는 질의 숙박을 10만원, 20만원 받으니 문제가 생긴게 아닌가.

그리고 참고로, 당시 우리나라와 비교될만한 좋은 예가 있는데 인도그랑프리이다. 2011년에 처음 개최되었는데, 인도도 당시에 우리나라에서 처음 개최할때처럼 서킷에 흙먼지 휘날리는 아주 안좋은 서킷이었다. 하지만 인도는 굉장히 가능성있는 곳으로 언급이 되고 우리나라는 첫대회때 굉장히 안좋은 취급을 받는 것을 보면서 조금 부당하다고 생각이 들긴 했다. 물론 우리나라가 더 기대를 많이 받기 때문에 더 실망을 많이 한것이겠지만.

무엇보다도 아이러니인것이, 한국 첫대회 2010년 당시 서킷 인증도 편법으로 개최 며칠전에서야 받고 노면에 기름떠다니고 흙먼지 날리고 하는 상태였던게, 흥행에 도움이 되었다는 사실이다. 당시 레드플랙으로 중계시간도 3시간이 넘어간데다가, 너무나 극한 상황으로 당시 챔피언십 1,2위였던 레드불 콤보를 둘 다 날려버려서, 당시 한국 포함 시즌 3경기 남은 상황에서 챔피언 후보가 5명이라는 초유의 사태를 유지시켜주는 효과를 가져왔던 것이다. 그리고 이 경기에서 알론소가 오랜만에 우승하여 챔피언십 선두에 서게 되고, 결과적으로 한국 전까지는 웨버가 선두였지만, 한국 이후는 알론소가 선두, 그리고 마지막 아부다비에서도 마지막까지 챔피언을 알 수 없는 상황까지 간 끝에 베텔이 챔피언십을 획득하게 된것이다. 그러니까 베텔의 시대를 열게 된 중요한 그랑프리이기도 하고, 이러한 예측불허의 전개로 대부분 생소해하는 한국민들을 F1 팬이 되게 하는 효과가 있었다. 이 당시 붐은 상당했다. KBS, MBC 등에 동시에 크레인 업체 이름이 나오는 걸 보자 다음해부터 너도나도 광고를 넣기 시작했고, 1등이 하나 둘 계속 리타이어를 하는 흥미진진한 경기를 보면서 다음 해에도 경기를 보고자 하는 사람이 늘어났고, 이는 분명 티켓 판매에도 도움이 됐을 것이다. 당시 목포시민들이 F1 규정을 꿰고 있을 정도였다. (V8 에서 V6로 바뀌는 것을 아쉬워하는 식당 사장님이 계셨다.)

그래서 결론은 이것이다. 우리나라가 확실히 물가도 싸고 편리했다. 숙박요금, 식비 모든 것이 다른 어떤 개최국가(인도같은 나라는 제외)와 비교해도 싸고, 교통도 주최측의 제공으로 어떤 나라보다 편리하고 쾌적했다. 국민들이 불만사항으로 당시 명확히 제시한 것들을 다 해결한 셈이다. 하지만 사실 해결해야할 문제는 그것보다는, 시설확충과 투자였다. 화장실을 늘리고 사람들이 걷기 쉽게 하고, 영어안내문을 게시하고. 그리고 서킷운영을 상시해야하고. 이 문제는 어느 정도 해결이 된듯하다. 우리나라 유일의 Grade 1 서킷으로써 많은 모터스포츠 대회가 영암에서 개최되고 있다. F1 대회 실패의 원인으로 지적된것이 우리나라 모터스포츠 기반 부족이다. 이러한 기반은 하루아침에 만들어지는게 아니다. 영암서킷과 같이 우리나라에서 첫 기반 시설이 지어지고, 그 위에서 여러 대회가 열리고 있다는것 자체가 기반을 닦는 일이고, 지금도 여러 인재들이 발굴되고 있다. 요새 비용문제로 올림픽경기장들도 개최 이후 헐리는 일이 전세계에서 많이 벌어지고 있는데, 이러한 시설이 남아서 계속 쓰인다는 것만 해도 엄청난 기반이 아닐 수 없다.

마지막으로 나는 전라도 사람도 아니고 서쪽이랑은 연이 없는 사람이다. 우리나라에 지식인이라고 행세하고 다니는 사람들조차 이런 인터넷 커뮤니티적인 편견에 찌든 채로 산다는 걸 생각해보면, 어느나라나 사람은 다 비슷한가보다. 위대한 위인들도 인간적으로 보면 비꼬는 사람도 많고 찌질한 사람도 많은것처럼. 너나 나나 모두다 그저 별볼일 없는 인간이구나. 그렇게 살기로 하자.

두서없이 쓴 글이니 너무 비난하지는 말아달라. 하지만 사실관계에 대해서라면 말해줄 수 있다. 팬덤으로 치면 1세대이고 한국에 아무데서도 안할때 영국채널들 보고 했던 세대니까.

이동시간 1시간으로 비꼬는거보면 흥행안되는 나라들만 가보셨나보다. 몇시간 이상 걸리는게 정상이지. 아시아쪽은 흥행 잘 안되니까 억지로 공항쪽에 붙여서 지은거고. 우리가 선진국을 따라해야지 후진국을 따라하나? 우리 사정에 맞춰야한다? 일본은 그럼에도 불구하고 일부러 유럽따라서 깡촌에 짓고 (국도1호선상에 짓긴했지만) 잘만 성공했는데.

Saturday, 18 May 2024

Interpolation function training

Ideal interpolation kernel is sinc function, which consists of all frequencies upto Nyquist frequency. However, this involves infinite-dimension convolution in discrete calculation, so we apply window function. In signal procession, thus, interpolation kernel is windowed-sinc function [https://www.analog.com/media/en/technical-documentation/dsp-book/dsp_book_Ch16.pdf], and the window function can vary to achieve (1) to narrow the window width to reduce calculation, (2) and in the same time to increase accuracy and reduce artifacts. We have to satisfy these two contradictory conditions, so we have to compromise and optimise conditions.

    The kernel generally must satisfy f(0) = 1 and f(n != 0 but integer) = 0 and additionally I force to satisfy to be continuous function, to avoid catastrophic artifacts. Generic window function may be written in Fourier series, (cosine if symmetric) [https://en.wikipedia.org/wiki/Window_function] 

\[ \displaystyle
w(t)=
\begin{cases}
 \sum_{k=0}^{N}a_k \cos k \pi t  + \sum_{k=1}^{N} b_k \sin k\pi t\quad\text{if  \(t\in[-1,1]\)}
\\
0\quad\text{else}
\end{cases} \]

with absolute constraints

\[\textbf{Constraint 1: }\quad w(0) = \sum_{k=0}^{N} a_k = 1,\]

\[\textbf{Constraint 2: }\quad w(1) =\sum_{k=0}^{N}(-1)^k a_k = 0, \]

assuming the window width to be [-1, 1] (to use in practice, scale this in \(t\)-direction) .


Projection of the window parameters \(\{a_k, b_k\}\) to the constraints.

    From \(\{a_k, b_k\}\) vector space, we have two constraints to absolutely be satisfied. Analogously to this situation: we must project a point to two planes simultaneosly, thus making it on the line, the intersection of the two planes; The projection must move perperdicular to either plane. We can develop a training process only moving on the constraints, but because of calculation errors, we have to develop a way to project on the constraints anyway. The training process to optimise the kernel to the given big data of audio may correspond to the loss optimization process of this \((2N+1)\)-dimensional point moving to the minima or maxima.

    Let us concretise the projection idea more. The \((2N+1)\)-dimensional point always satisfy 2 constraints above, so the valid space satisfying the constraints is \((2N-1)\) dimensions. In the quotient space, the kernel corresponding to a certain point must be \(2\)-dimensional, which passes the given point and is parallel to the two perpendicular vectors of the two constraint \(2N\)-plane. The intersection between the proper \((2N-1)\) dimensions and the 2D-kernel is the projected point we want.

    The two perpendicular vectors is the same as the coefficients of the equations of the planes, so the 2D kernel including a point \(\{a'_k, b'_k\}\) is written by 

\[ \{a_k, b_k\}  = \{a'_k, b'_k\} + \{1, 0\} x + \{(-1)^k, 0\} y \]

To obtain the intersection of this kernel to the two constraints \(w(0), w(1)\), we may substitute the  \(\{a_k, b_k\}\) expression of the kernel to the equation of each constraint.

\[ w(0) = \sum_{k=0}^{N} (a'_k + x + (-1)^k y) = 1 \]

\[ w(1) = \sum_{k=0}^{N} (-1)^k(a'_k + x + (-1)^k y) = 0 \]

From these equations, we have to obtain \(x\) and \(y\) to obtain how much the intersection have moved inside the kernel space from the original point. Simplified,

\[ w(0) =(N+1) x + \frac{1 + (-1)^N}{2}y + \sum_{k=0}^{N} a'_k  = 1 \]

\[ w(1) = \frac{1 + (-1)^N}{2} x + (N+1)y + \sum_{k=0}^{N} (-1)^k a'_k = 0 \]

More simplified,

\[
\begin{pmatrix}
(N+1) & \frac{1 + (-1)^N}{2}
\\ \frac{1 + (-1)^N}{2} & (N+1)
\end{pmatrix}
\begin{pmatrix} x\\y \end{pmatrix}
=
\begin{pmatrix}
1-\sum_{k=0}^{N} a'_k 
\\
-\sum_{k=0}^{N} (-1)^k a'_k 
\end{pmatrix}
\]

\[
\Rightarrow
\begin{pmatrix} x\\y \end{pmatrix}
=
\frac{1}{(N+1)^2 - \frac{1 + (-1)^N}{2}}
\begin{pmatrix}
(N+1) & -\frac{1 + (-1)^N}{2}
\\ -\frac{1 + (-1)^N}{2} & (N+1)
\end{pmatrix}
\begin{pmatrix}
1-\sum_{k=0}^{N} a'_k 
\\
-\sum_{k=0}^{N} (-1)^k a'_k 
\end{pmatrix}
\]

\[\Rightarrow
\begin{pmatrix} x+y\\x-y \end{pmatrix}=
\dfrac{
  (N+1) -\frac{1+(-1)^N}{2} \mathrm{diag}\{1, -1\}
}{(N+1)^2 - \frac{1+(-1)^N}{2}}
\begin{pmatrix}
1-\sum_{k=0}^{N} a'_k -\sum_{k=0}^{N} (-1)^k a'_k 
\\
1-\sum_{k=0}^{N} a'_k +\sum_{k=0}^{N} (-1)^k a'_k 
\end{pmatrix}
\]

\[\Rightarrow
\begin{pmatrix} x+y\\x-y \end{pmatrix}=
\dfrac{
  (N+1) -\frac{1+(-1)^N}{2} \mathrm{diag}\{1, -1\}
}{(N+1)^2 - \frac{1+(-1)^N}{2}}
\begin{pmatrix}
1-2\sum_{k=0}^{N} \frac{1 + (-1)^k}{2} a'_k 
\\
1-2\sum_{k=0}^{N} \frac{1 + (-1)^{k+1}}{2} a'_k 
\end{pmatrix}
\]

Thus, the projected point \(\{a_k, b_k\}\) from the original point \(\{a'_k, b'_k\}\) is

\[
\begin{cases}
a_k = a'_k + x + (-1)^k y,\quad k\in[0,N],
\\
b_k = b'_k,\quad k\in[1,N].
\end{cases}
\]

\[
\displaystyle
\Rightarrow
\begin{cases}
a_k = a'_k +
\dfrac{
  (N+1) -\frac{1+(-1)^N}{2} (-1)^k
}{(N+1)^2 - \frac{1+(-1)^N}{2}}
\left(
1 -2\sum_{m=0}^{N}\frac{1+ (-1)^{k+m}}{2} a'_m 
\right)
\\
b_k = b'_k,\quad k\in[1,N].
\end{cases}
\]

    Thus, here we may define projection operator \(P\) s.t.

\[
\displaystyle
\begin{cases}
P(a_k) := a_k +
\dfrac{
  (N+1) -\frac{1+(-1)^N}{2} (-1)^k
}{(N+1)^2 - \frac{1+(-1)^N}{2}}
\left(
1 -2\sum_{m=0}^{N}\frac{1+ (-1)^{k+m}}{2} a_m 
\right)
\\
P(b_k) := b_k,\quad k\in[1,N].
\end{cases}
\]


Gradient vector projection to the constraints

Now, as doing projection each iteration of training is inefficient, we want to develop to project each step only on the constraints.

    From the original valid point \(\{a^0_k, b^0_k\}\) s.t. \(P(a^0_k\) = a^0_k, we want to consider new train step \(\{a^0_k + \Delta a_k, b^0_k + \Delta b_k\}\) where \(\Delta a_k, \Delta b_k\) may not be determined with constraints but only gradient of loss. Then, we must project \(P(a^0_k + \Delta a_k)\) to finalize the step.

\[
\small
\begin{aligned}
P(a^0_k+\Delta a_k) &= 
a^0_k +\Delta a_k+
\dfrac{
  (N+1) -\frac{1+(-1)^N}{2} (-1)^k
}{(N+1)^2 - \frac{1+(-1)^N}{2}}
\left(
1 -2\sum_{m=0}^{N}\frac{1+ (-1)^{k+m}}{2} (a^0_m + \Delta a_m)
\right)
\\ &= P(a^0_k) + \Delta a_k
-2
\dfrac{
  (N+1) -\frac{1+(-1)^N}{2} (-1)^k
}{(N+1)^2 - \frac{1+(-1)^N}{2}}
\sum_{m=0}^{N}\frac{1+ (-1)^{k+m}}{2} \Delta a_m
\end{aligned}
\]

    Thus, here we define the new projection operator \(\Delta P\) for the differentiation vector of the coefficient point:

\[
\Delta P(\Delta a_k) :=  \Delta a_k
-2
\dfrac{
  (N+1) -\frac{1+(-1)^N}{2} (-1)^k
}{(N+1)^2 - \frac{1+(-1)^N}{2}}
\sum_{m=0}^{N}\frac{1+ (-1)^{k+m}}{2} \Delta a_m
\]


Pseudocodes

\(P\) and \(\Delta P\) can be written in PyTorch codes:

Tuesday, 9 April 2024

사이비 과학자들

 오래 전 유튜브에서 충격적인 영상을 본 적이 있다. 물리 유튜버라면서 자신만의 오개념을 가지고 자신만만하게 소개를 하고 사람들은 칭찬만 하는 영상이었다. 그런 곳에서 비판을 해봤자 의미가 없다는 것을 알기에 스트레스를 안고 그대로 묻어버렸다.

몇년이 지나고 다시 찾아가보니 물리에 관심있는 문과 청년 사이비 과학자는 어느샌가 진짜 과학자로 둔갑해있었다! 내 기억에 분명 본인 블로그에 자기는 문과라고 적어놨었는데 온데간데 없고, 사람들은 멋대로 '자기가 아는 사람인데 물리 전공했다'던가, 심지어 위키에는 물리학 연구자로 되어있다...! 진짜 전공자인 내가 보기에 이 사람의 오개념 수준이 중학생 정도밖에 안되어서 몸서리쳤는데.

전공자라면 알 것이다. 오개념도 수준이 있다는 것을. 전공자가 일반인을 위해 알기 쉽게 비유하면서 다소 틀리는 것과, 본인의 비유를 성배라도 되는것마냥 추켜세우는 것은 분명 차이가 있다. 물리학자라면, 적어도 제대로 교육받은 사람이라면 항상 오개념을 수정하고자 할 것이다.

물론 내가 틀릴 수 있다. 내 기억이 잘못된 것이고, 이 사람은 진짜 전공자일 수도 있지. 하지만 어쨌든 중요한 것은 이 사람의 영상은 보면 안된다는 말을 하고 싶었다. '유클리드 기하학을 다시 만들었소이다'라고 하는 사람의 말을 듣고 중학교 수학을 배우는것마냥 정말 의미가 없는 행동이다. 더군다나 보시다시피 사람마다 이 사람의 정체에 대해 하는 말이 다르고, 본인은 거기에 대해 아무말도 하지 않고 있다.

그 사람에 대해 알지도 못하고 이런 말을 함부로 하는 것은 굉장히 위험하다는 것은 알고 있다. 그래서 자제해왔지만, 이 사람은 이제 너무나 큰 유튜버이고 단 한사람도 이 사람에 대한 비판이 없다는 것은 너무 위험한 것 같아 적어놓는다.

이 사람이 본인에 대해 문과라고 밝힌 문서가 남아있지 않은게 참으로 안타깝다. 그 페이지가 기억이 난다. 본인이 공부한 그 부분의 책 사진을 찍어서 같이 올리기도 했었다. 아마 해당페이지는 지금 지워진것 같다.

---

이런 말을 덧붙이면 신뢰성이 떨어질 수도 있을것 같은데, 리뷰엉이 유튜브는 정말 대단한것 같다. 전공자가 봐도 자연스럽고 말이 안되는 곳이 없다. 전공자가 아닌데 저렇게 설명하려면 얼마나 공부를 해야할까. 물론 자문 역이 따로 있다는 것도 알고는 있는데 본인도 열심히 논문을 읽고 있는 것으로 안다. 공부에 있어서 첫번째 덕목은 남의 말을 듣는 것이다. 자기 말을 하는 것이 아니라.

Sunday, 29 January 2023

심리검사의 허구성

심리검사를 도입하는 회사들에서는 개인에 대한 이해없이 성향을 카테고리화하고 사람을 판단하기 때문에 오히려 심리검사에 의한 오판을 많이 일으킬 것이다.

예를 들어 나는 매사를 계획하기보다는 직관에 많이 의존하는 편이다. 동시에 나는 완벽주의적이어서 완벽하지 않으면 포기하는 성향이 있는가 하면 계획을 세울때도 plan B, plan C는 기본에 어떻게든 내가 세운 계획대로 수행하기 위해 무리하기를 불사한다. 

만약 심리검사를 한다면 직관형으로 나올것이고, 회사에서 내가 완벽주의적이라고 한다면 거짓말이라고 판단하고 부정적인 평가를 할것이다. 인간의 다면성을 부정한 결과이다. 결국 이러한 성질을 잘 살릴수 있는 직무를 찾기보다는 합격을 위해서 거짓말을 해야하는 상황으로 내몰리는 것이다.

따라서 보통 우리가 MBTI를 사이비 취급 하지만, 심리 치료를 목적으로 하지 않는, 하지만 심리학 전공자들에 의해 만들어진 대부분의 심리검사들 또한 본질적으로 MBTI와 같이 사람을 잘못된 카테고리화 하는 측면이 있다.