A Lambda Based Model

Lambda is the order size that will cause the price to change by a factor of “e”; measured in “units of shares” Doyne Farmer

Lambda is the variance-covariance between variables in testing the statistical significance of the mean differences.

Caveat: This hypothesized model’s body of knowledge may seem incoherently arbitrary, however, because our preexisting preferences are often undefined when it comes to market performance analysis, value can be constructed through arbitrary parameters if those parameter’s values are correlative to forward looking real-time outcomes and validated through objective probability. 

Einstein said that all models are metaphors, meaning their application in real-life situations fails the litmus test, say within the Empirical Law of Averages.  We use the Law of Large Numbers to collect the empirical input data which in turn is calibrated to a proprietary formula that compares the liquidity of netshares being traded between the investor and counterparty – the Market Maker.

Our central focus is smart logistic mapping through principled analytics where market performance originates from three disciplines: Theory, Empirical Data, and Methodology.

We know that the need for evolutionary epistemology is paramount; our economic formulates must touch upon characterization of of constantly shifting geopolitical and socioeconomic behaviors; that parallels how traders actually respond to the kinds of complex reasoning tasks which influence market performance outcomes.

Our conversion guide is based on the premise: the more diverse our approach, the more theoretical hurdles emerge, the more complexity for risk control, the more multi-dimensional is our statistical perception.

Much like Peter Cahcart Wason’s Selection Task, we are measuring the extent to which our formulates are capable of detecting violations to conditional (traditional) rules of metaphoric logic which has the propensity to be solicited for the sole purpose of economic deception.

Ergo, we are cobbling the principle of truth together that calculates a robust statistical probability of response because traders/investors judgments under uncertainty don’t follow the statistical theory of prediction, but moreover exercise a default option based on individual heuristics that sometimes yield reasonable reward, but more often lead to severe errors for various reasons.

The statement, “Implied Volatility drives it all” is an explicit explanation, anecdotal to the Doppler Effect in the Big Bang theory. But I digress.  The logical argument is assumed true and conclusive when the argument contains two fundamental market environments:

The Q World and The P World


p  ~  q

The Q World 

Pricing derivatives that determines the fair price of a given investment in terms of more liquid securities, driven by supply and demand.

The sell-side trader can make a market on the investment under consideration.

For example, Brownian motion and its application to pricing of options (derivatives) is a model devised by Louis Bachelier, constructed as a time series of changes in the logarithm of price formation as a “random walk”.

(In Principle: 

A random variable in probability theory is said to be “stable” – when the linear combination of two independent copies of the variable has the same distribution up to location and scale parameters; scalar or vector-valued parameter [Levy alpha-stable distribution]*.)

The Q World consists of: “extrapolate the present”; risk-neutral probability; continuous-time martingales; Ito calculus, PDE’s; calibration.

Calibration is one of the main challenges of the Q World.  This is because once a continuous-time parametric process has been calibrated to a set of traded securities through a relationship such as (1) a similar relationship is used to define the price of new derivatives.  This creates a closed system.

The P World

Forecasts market prices of all securities (in a given portfolio) at a given future investment time horizon. This is the buy-side of the market, where quantitative theory of risk and portfolio management stated with the mean-variance framework of Harry Markowitz (1952), shifting away from the concept of trying to identify the best individual stock for investment.

Portfolio efficiency is a complexity of variables.

OG develops a real-time statistical theory on its own to overcome these hurtles…

driven by the market performance’s Implied Volatility (IV) and Standard Deviation Squared.

IV is leverage in market equilibrium equated to logarithmic R of the accumulative probabilities that switches IV (leverage) to normal distributions using exponents in 3’s (Triads); verifying the liquidity of the model. (This is our thesis for using triad nodal equations in each of the model’s network calculations.)

Conceptually the statistical (equations) nodes put into triad clusters – relative to the “heterogeneity” (endogenous/exogenous) factors in market performance can be filtered through convergence of probability:

P(|X1 − X| < e), P(|X2 − X| < e), P(|X3 − X| < e), …

Moreover, we consider Joint Probability Distribution, given that our collection of variables (nodes) can be assumed to be random, thus:

P( (X1 is in A1) and (X2 is in A2) and … and (Xk is in Ak) )

Considering the Law of Averages, our variables have the same probability distribution is likely to be close to the expected value:

P{|(X1 + X2 + … + Xn)/n − E(X) | < ε}

Finally, Law of Large Numbers is integrated given that the same probability ‘p’ of success in each trial.

This is run through the P-value, null hypothesis equation as a test statistic:

P( X ≤ x ) ≥ p

In the vein of being market analysis innovators,

we incorporate Pythagoras’ “Harmony of the Spheres” theory to validate our triad nodes –

each node is planetary, in orbital resonance to the metaphysical principle that mathematical relationships express qualities or “tones” of energy which manifest numbers, all connected within a pattern of proportion.  All things are tied together in this universe.

“Tones” is “market noise”.

Finding Equilibrium

Mathematical Harmonic Resonance (MHR) and Statistical Harmonic Resonance (SHR) utilities

These two utilities identify collectively our formulary called referenced as: Aurea.

Algebraically stated as the Golden Ratio:

a + b / a = a over b = def = φ

a = b is to a as a is to b

φ = 1 + 52  divided by 2 = 1.6180339887

We take this one step further in our computational formulary.

Based on the apothem of  a pyramid, where φ is multiplied by the semibase (the apothem is equal by slant height along the bisector of a face) is an isosceles triangle, constructed by two halves.

Here the slope of the face is integrated into our formulary graphic: The height of the pyramid is Square over Phi times the semibase (that is, the slope of the face is Square Phi; the square of the height is equal to the area of a face, φ times the square of the semi-base.

Translated: The square of the height (IV) is equal to the area of the face (Price), Phi times by the Square calculates the Golden Ratio 1.618 (Phi) however, we have switched this to Pi 3.14159 as the fixed ratio or Statistical Volatility.  In Euclidean geometry, the metaphor for trying to do the impossible is Square over Pi.

One must consider the geometric proportions; triangular ratio within the circumference, explicitly demonstrated by Leonardo Da Vinci’s Vitruvian Mancosmographia del minor mondo.  The cosmos is the world, is us.


Levy alpha stable distribution is integrated into the formulary represented as α: 

The alpha coefficient  is a parameter in the capital asset pricing model.

The Nodal Triads


Network Mapping – Statistical Nodes Correlations – Selected High Rankings

The statistical inputs (nodes) are found to be interdependent, but if I incorporate an “assortativity” triangulation link I can exploit preferential correlations that is evolutionary from the standard meanvariance correlations.  The sensitive dependence of the dynamical data trajectories that look like random noise are eliminated. (Re: Padgett & Ansel’s Florentine Data – Marriages: Exponential Random Graph Models)

(Note: Additionally, we can take into account complex, unpredictable behavior from simple, deterministic rules based on the Feigenbaum’s δ 4.6692016… mathematical constant and/or Euler’s Constant.)

To take this one step further:

We are reversing Black-Scholes (nothing new) but integrating Benford’s Law.

Why we use Benfords Law is two fold:

It is used when performing corporate auditing to find fudging the numbers in the ledgers thus the validation of its accuracy, and

PRICE ACTION, PRICE INDEX, BID/ASK, and IMPLIED VOLATILITY to underlying price formation is calculated with the Premium Strike/Underlying price, respectively, etc.

ASK SIZE and BID SIZE, are turned into a ASK/BID RATIO – that we interpret as another underlying prefix to Volatility.

Another nodal input set are the ADVN/DECN realtime values of the three major indexes that give me a directional signal for intraday tracking that is calculated into the preset time horizon (Frontier) (days, weeks, months divided by 360) .  The outcome becomes the weighted index denominator.

Selected High Rankings

Fundamentally based “high rankings” to meet our standard of criteria is based on a pre-set parameter between the IV% range and HV% range that overlaps when running an “all asset” scan during intraday trading.

We seek a higher fluctuation in the HV percentage that signals velocity; juxtaposed to the IV, – the estimated volatility going forward, and Standard Deviation, one time removed of the price formation.

There is an advantageousness edge found here. (Rule: An increase in IV will increase an options premium, both Call and Put and vice versa.) 

What we are looking for is a specific underlying HV % range that is proven to be profitable (based on back testing empirical data) compared to the options IV% and STDEV.

When an IV is relatively low and is expected to rise (what we are looking for), it is a Buy signal.

When an IV is relatively high and is expected to drop, it is a Sell signal.

Option – Underpriced/Overpriced: 

When IV is considerably higher than HV, the option is expensive. 

When IV is much lower than HV, option is inexpensive.

Technicals/Fundamentals: 1HR – 20SMA and 50 SMA crossovers, Market Capitalization of a firm or investment instrument is replaced by the Total Factor Production equation;  Aggregated Volume to Shares identifies supply and demand inertia; lastly Binary Events are noted for short term anomalies.

(The logical implications in how this model is put together is for all of this to kick in with the ability to “self-correct” based on the aggregated statistical data and computations.)

(Macroeconomics: Given that the Taylor Rule is used in monetary policy, we presume that another nodal cluster would incorporate the Inflation Adjustment formula (Risk Free Rate).

Most importantly is adding the anomaly (Epsilon = randomness and/or monetary – interest rate – policy reaction function)

ϕt = ϕt – 1 + y (yt – y*/y*) + έ1

First part of equation is inflation inertia; the tendency for a selected period’s inflation rate to be equivalent to the last period’s inflation rate. The second part is the inflation’s rate inertia.

Currently, the dominators in OG are HV, IV, STDEV, PRICE FORMATION, TIME VALUE.


My excel spreadsheets are plugged into TOS, with the final spreadsheet aggregating this data and applying attribute rules:

“IF” statements; (TRUE, FALSE), the outcomes are calculated into a CONCATENATE formula for “0” or “1” outcomes.  There is a set time frame that tracks the length of time an asset maintains a complete string of “1s” and/or “0s”.

All “1s” are a Buy signal.  All “0s” are a Sell signal (Stephen Wolfram).  The objective is to translate this into prioritizing the Call/Put spread strategy out of five basic spreads: Covered Call, Vertical Spread, Strangle, Straddle, Calendar.

(A similar application invented by Stanislaw Ulam and John von Neumann  [1940] could be Cellular Automata; Black Cell, White Cell, that produces a Green Cell signal when letting the self emergent behavior (outcomes) run on periodic configurations. Each cell changes depending on its immediate neighborhood where only eight values are used, thus minimizing precious computation processing time.)

So when we post an intraday High Ranking asset selection (the top 20 – 50 in price change) on this site, you now have a glimpse into the process behind OG.

Next Segment:  

Reversed Black-Scholes and Benfords Law Formula for the Q World and P World.  Why this works.


Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s