terça-feira, 28 de janeiro de 2014

Sobre chances nas lojas de departamento

Tenho a impressão que ao falar sobre as lojas de departamento, passei a idéia que as coisas funcionariam a despeito de quais atitudes que os donos tomassem.

Não é assim.

A minha suposição é que as probabilidades de sucesso (que no fundo são vendas) são afetadas pelas estratégias. Em suma

p(sucesso | estratégia A) não é necessariamente igual a p(sucesso | não estratégia A).

Infelizmente não temos nenhum dos mencionados acima, apenas p(estratégia A | sucesso) e/ou p(não estratégia A | sucesso). Esses são quantificaveis a princípio observando o desempenho das empresas após terem tido sucesso. Mas também necessitariamos de p(não sucesso | estratégia A) e p(não sucesso | não estratégia A).

Pegando emprestado as idéias de Pareto, creio que as diferenças de estratégias (e suas implementações) e também um pouco de sorte são as principais razões para o sucesso ou fracasso.

Eu gosto de pensar que a compra funciona como um campeonato de cara ou coroa. Só que neste caso, as probabilidades não são iguais, mas derivadas das estratégias. Naturalmente, como são probabilidades, isso quer dizer que há um grande fator de incerteza.

Assim, se tivessemos N competidores, os que tivesse as estratégias mais adequadas teriam maiores probabilidades de venda, enquanto os com as estratégias menos adequadas teriam menores probabilidades. E o fator que determinaria o sucesso? A compra da mercadoria. Se 10 pessoas fossem ao mercado a teríamos 10*(p(venda) + p(não venda))^10. E assim teríamos o número esperado de mercadorias vendidas.

Fazendo isso para a totalidade das lojas poderíamos chegar em uma distribuição... Mas aí sem dados empíricos fica difícil avançar nesta idéia.

quinta-feira, 23 de janeiro de 2014

Confundindo narrativa e realidade

Ontem vi um documentário intitulado "O Nascimento do Shopping Center". A tradução para o português foi equivocada. Um título melhor teria sido "O Nascimento da Loja de Departamentos", mas creio que hoje em dia tal título teria pouca ressonância pois o que eu conheci como loja de departamento (Sears, Mappin, Slopper) não tem a mesma projeção que já possuiram um dia.

A loja de departamentos é essencialmente um lugar único aonde tem tudo. O documentário falava na Selfridge (Inglaterra), Wannamaker (EUA), Myer (Austrália), Le Bon Marche (França) e Macys (EUA).

Tirando a Macys os outros nomes não tem tanta ressonância quanto já outrora tiveram. Um exemplo de como funcionava uma loja de departamentos pode ser (incrivelmente) visto em uma comédia de Jerry Lewis.
Mas a tradução equivocada não é ponto deste post. O ponto trata justamente das análises dos sociólogos e afins que fazem o comentário do documentário.

Eu já havia dito aqui que é importante não confundir documentário com a verdade. O mesmo é apenas uma interpretação dos fatos segundo a ótica do próprio documentarista. Mas o curioso das análises é que os próprios analistas embutem capacidade análitica e de visão tão profunda nos donos de loja que os mesmos fazem parecer que sabiam muito mais de ciências sociais do que os papas da área na época e mesmo atualmente.

Em suma, os donos de lojas tinham um tirocínio e um conhecimento da sociedade que rivalizariam os maiores estudiosos da sociedade de qualquer época.

Afinal, que outra explicação para tamanho sucesso e capacidade de visão?


Bem, permitam-me trazer uma forma diferente de ver o problema. Uma forma que não exige que os donos de loja tenham presciência, ou inteligência infinita, ou conhecimento completo...

Nesta interpretação não existem apenas os donos de loja que se tornaram vitoriosos e deixaram suas marcas, mas uma multidão de donos de loja todos competindo por sucesso.

Só que com o esquecimento da multidão que tentou e fracassou, só sobrou o conhecimento dos vencedores. Estes vencedores escolheram estratégias de sucesso aonde outros escolheram estratégias equivocadas para a situação que enfrentavam. E os vencedores foram bem sucedidos até o ponto em que não foram mais bem sucedidos (por uma variedade de motivos).

Então esta abordagem trata de uma mistura de aleatoriedade com escolha de estratégias bem sucedidas. Poderiamos chamar de teoria da seleção natural em um paralelo com a biologia.

O problema é que esta explicação não é bonitinha, nem ornamenta bem os vencedores. Os mesmos preferem narrativas aonde seus feitos de inteligência e perspicácia superaram barreiras aparentemente intransponíveis no caminho para o sucesso.

Ah... Se pelo menos pudessemos deixar de lado o orgulho e a vaidade na hora de fazermos análises realistas... Pelo menos nas ciências naturais temos a natureza que nos coloca nos trilhos eventualmente...

Pena que nas ciências sociais parece que não há tal força claramente definida. Assim terminamos com análises que são mais narrativas (historinhas) do que uma visão da sucessão de eventos que "enterraram" tantos concorrentes e deixaram outros em situação bem menos periclitante. Mas é difícil ver isso.

Creio que para tanto teríamos que analisar não apenas os casos de sucesso, mas os casos de fracasso também. E ver quais foram os pontos chaves aonde decisões ou estratégias mudaram o curso dos acontecimentos.

Por exemplo: quais foram as ações tomadas pelas lojas de departamento durante as crises econômicas? E quando falo das ações não falo apenas das lojas que sobrevireram, mas de todas as lojas.

Talvez assim possamos efetivamente desvendar um pouco do mecanismo real que permitiu o sucesso e a queda dessas lojas (sim, queda. Do contrário teríamos elas ainda por aqui).

Post Scriptum: Aliás em outra nota sobre interpretação, creio que o mesmo problema ocorre quando se estuda a audiência de programas televisivos: as pessoas parecem achar que quem determina a audiência é a emissora e não os espectadores.

Lamento dizer isto aos que pensam assim, mas quem determina a audiência são os espectadores. Se os mesmos gostam de programas que consideramos temos que aprender que isso é que determina o sucesso destes programas e não o contrário...

Ou seja, você pode até culpar a Globo por ter criado o "Big Brother Brasil", mas não pode culpá-la por o mesmo estar em sua décima quarta edição...

sábado, 18 de janeiro de 2014

Estimativa de Inflação para 2014

Com os dados obtidos no post anterior temos duas possíveis formas de estimar a inflação para 2014 (levando em conta a sazonalidade). Ambas dão o mesmo resultado 5.52%

Mas tem distribuições diferentes, devido aos momentos superiores.

Uma delas considera que a distorção é diferente zero e  na outra distorção é igual a zero (o que causa uma simetria da curva).
Distorção diferente de zero
Distorção igual a zero
Então vamos as análises:
Em ambas o valor mais provável é 5.52% (ele divide a curva em duas metades iguais). Mas os intervalos de confiança são diferentes.

  • Na curva sem distorção, o intervalo de 91% é de 4.7 a 7.17%
  • Na curva com distorção, o intervalo é de 90% e é de 4.37% a 6.9%
  • Na curva sem distorção a probabilidade da inflação ser menor de 5% é de 19%
  • Na curva com distorção a probabilidade da inflação ser menor de 5% é de 23%
  • Na curva sem distorção a probabilidade da inflação ser maior de 6% é de 23%
  • Na curva com distorção a probabilidade da inflação ser maior de 6% é de 19%

O que vai ser no futuro? Bem teremos de aguardar um ano para saber quão boa foi a estimativa. Mas vermos mais o que acontece afrente.

sexta-feira, 17 de janeiro de 2014

Sazonalidade

Um dos pontos que fiquei de discutir sobre a predição de inflação era justamente a questão da sazonalidade.

Isso é ao mesmo tempo um tanto óbvio, mas nem tanto assim...

Por que? Bem primeiro a sazonalidade tem um que de periodicidade. Apesar de não ser exatamente um requerimento. A sazonalidade indica um efeito relativo às estações do ano (inverno, verão, etc...).

Seria de se imaginar que se aplicassemos uma transformada de Fourier na série de inflação alguns picos apareceriam, indicando a sazonalidade. Bom sabem o que acontece? Isto....

Então temos aqui o periodograma do sinal. Temos repetições fortes com períodos de 6 meses, 12 meses, 15 meses e 32 meses. Naturalmente a mais forte é a de 12 meses. O que isso significa?

Do ponto de vista da série, o termos dominante de repetição é anual. Isto pode ser visto aqui na reconstrução do sinal com diferentes quantidades de termos da série de Fourier.
Do ponto de vista da estatística podemos considerar que o sinal tem uma componente senoidal e um ruído associado a ela. Há uma média, uma componente periódica e uma variação aleatória.

A média tem valor 0.449%
A componente periódica tem amplitude 0.166% (cossenoidal com fase zero)
E finalmente o ruído tem média zero, com desvio padrão de 0.1953% e distorção de 0.419% (bem alta mesmo para uma quantidade reduzida de amostras, indicando que a aleatoriedade provavelmente não é de distribuição gaussiana).

Agora podemos fazer novas previsões para inflação de 2014 com um modelo para Transformada da Incerteza possivelmente mais aprimorado.

Pesos iguais:
  • w1=0.5 e x1=-0.1953% 
  • w=0.5 e x2=0.1953%
Pesos diferentes:
  • w1=0.6025476920 e x1=-0.1586167479
  • w2=0.3974523080 e x2=0.2404669779
O leitor talvez esteja curioso porque não usei o modelo com mais termos, mas eu prefiro começar com aproximações simples mesmo quando se trata de estudar um fenômeno complicado.

Então, qual é a previsão para inflação de janeiro de 2014?

Bom, tomando o caso mais simples: 50% de 0.42% e 50% de 0.81%
Já o mais sofisticado: 60% de 0.46% e 40% de 0.86%

Já a previsão de inflação para 2014? Isso fica para outro post...

sábado, 11 de janeiro de 2014

A inflação versus a predição

Saiu nesta sexta o resultado da inflação de 2013: 5.92%

Isso ao invés dos 5.32% da minha previsão (um erro de 0.6%, parece pouco mas ainda é bastante - só que não, como veremos depois).

Como os leitores devem se recordar no último post, eu achava que um resultado desta ordem não era muito provável. A maior razão era que eu achava improvável um aumento de 1% na inflação no mês de dezembro - dada a série histórica.

Eu poderia ficar aqui culpando a qualidade dos dados, mas a verdade é que eu estou satisfeito com o resultado.

Só que não...

Havia uma coisa que estava me perturbando: eu havia calculado uma índice de 1.03% para dezembro que a inflação fechasse 2013 em 5.9%. Então como chegamos a a 5.92% com uma inflação de 0.92% em dezembro?

Ora, a explicação mais simples era, naturalmente, a mais correta: eu cometi um erro nas contas de novembro. Que erro? Bem, ao invés da inflação acumulada de janeiro a novembro ser de 4.82%, esta era na realidade de 4.96%!

Isto quer dizer que o valor mais provável para inflação de 2013 estimado em novembro não era de 5.32%, mas de 5.46%.

Não é nada? Bem, naturalmente que ainda está errado, mas o intervalo de confiança muda de 5.2% a 6.1% para de 5.32% a 6.21%. Tudo bem, ainda está tudo dentro...

Mas há uma pérola no processo todo. Ao estimar o valor da inflação anual sem nenhum conhecimento do ano cheguei ao valor de... 5.92%

Sério. É só multiplicar estes dois vetores (produto escalar) que representam a distribuição inicial da Inflação representada pela Transformada da Incerteza:

Inflação: 4.24    5.12    6.01    6.91    7.82    8.73    9.65   10.58   11.52   12.46   13.42   14.37   15.34
Pesos: 0.129    0.288    0.295    0.183    0.077    0.023    0.005    0.001    0    0    0    0    0

Chega-se a 5.92%

Eu sei que parece brincadeira, mas acredite se quiser (ou faça o produto escalar...)

Em um post posterior eu faço mais análises...

quinta-feira, 9 de janeiro de 2014

A estimativa da inflação de 2013 saí nesta sexta

Relembrando o cálculo temos que o valor mais provável obtido neste blog foi de 5.32% (dada a precisão dos cálculos melhor dizer 5.3%, mas paciência). O intervalo é entre 5.2% e 6.1%

A estimativa do índice pelo IPCA-15 foi de 5.85%.

Será que teremos uma inflação mais próxima de 5.3% ou de 5.9%? Bem a inflação acumulada de janeiro até novembro de 2013 foi de 4.82%. Para a inflação chegar a 5.9% precisamos de 1.03% em dezembro. A última notícia que temos é o IPCA de novembro (0.54%). Olhando o passado é difícil crer que o índice de dezembro chegue ao patamar de 1% (apesar de ter gente jurando isso de pés juntos).

O caso é que se a inflação de dezembro for de 0.98% teremos o 5.85%. Já se for de 0.48% teremos os 5.32%. A inflação em SP divulgada hoje pela FGV foi de 0.56%. Se este índice se repetir teremos 5.41%.

Olhando outros IPCAs anteriores (relativos a dezembro) temos 0.79% (2012), 0.50% (2011), 0.63% (2010), 0.37% (2009), 0.28% (2008), 0.74% (2007), 0.48% (2006), 0.36% (2005), 0.86% (2004), 0.52% (2003). Então façam suas apostas: o índice de dezembro será mais próximo dos 0.5% ou dos 1%?

Como determinar proximidade? Usemos a média (geométrica): se a inflação de dezembro for inferior a 0.73% então a estimativa de 5.3% é melhor. Caso contrário a de 5.85% é melhor (ou alternativamente podemos arbitrar o divisor como a inflação total: se a de 2013 for menor que 5.58% então as minhas estimativas são melhores, caso contrário a outra é melhor).

Muito bem, então qual é a razão deste post? A intenção original desta série sobre inflação era investigar a importância da componente aleatória (na realidade da distribuição) em estimativas de inflação. Só que, como já mencionei em um post anterior, a metodologia do cálculo do IPCA se modificou ao longo do tempo, o que fez o cálculo dos estimadores via Transformada da Incerteza um pouco menos confiáveis.

Mas ainda assim, a numerologia está batendo até agora. O grande teste será nesta sexta. Mas cabe aqui apontar que a metodologia que adotei parece que revelou outra coisa: esse pessoal que tenta adivinhar inflação chuta horrores - e possivelmente muito mal...

Mas veremos o que vai acontecer! Sabermos nesta sexta!

Porque parece assim

Um dos grandes problemas em avaliar situações que requerem um posicionamento é que, na maioria das vezes, nossas decisões são mais baseadas em preconceitos do que análises profundas.

E isso nem sempre é uma coisa ruim, mas quase sempre é uma forma de transformar um problema difícil em algo substancialmente mais fácil.

Em termos do teorema de Bayes o que fazemos é tentar quantificar p(A|B). Só que ao invés de p(A|B), acabamos por usar p(A|C), ou, se formos um pouquinho mais analíticos p(B|A).

Isso é bastante natural, dado que nossos preconceitos permitem tomar decisões de modo mais rápido, ao invés de ficarmos empacados no processo de análise.

Isto vira um problema quando a análise é um passo fundamental para determinar a decisão.

Vamos a um exemplo? Que tal a questão dos fracos e oprimidos e quem tem razão em uma determinada contenda? Podemos pensar em alguma situação onde temos de determinar quem tem razão entre duas partes contendoras: uma das partes é o que chamamos de fraco e oprimido e outra parte não tem esta característica. A ideia é estabelecer qual das duas partes tem razão:

p(tem razão | fraco e oprimido) e p(tem razão | não fraco e oprimido).

E naturalmente, neste problema em particular temos:

p(tem razão | fraco e oprimido) + p(tem razão | não fraco e oprimido) = 1

A questão é determinar as probabilidades dos dois (bem na realidade determinar a probabilidade de um deles, já que a outra é facilmente calculável com o conhecimento de uma).

Se você é como eu, o nosso preconceito ditaria que p(tem razão | fraco e oprimido ) é maior do que p(tem razão | não é fraco e oprimido). Dependendo do nível de crença na equivalência entre ser fraco e oprimido e ter razão, pode-se chegar a certeza!

Mas uma mente sem estes preconceitos e sem informações adicionais sobre a contenda iria colocar estes valores inicialmente iguais:

p(tem razão | fraco e oprimido) = p(tem razão | não fraco e oprimido) = 0.5

Neste caso a mente sem preconceitos sobre a questão transforma fraco e oprimido em indivíduo A e a outra em indivíduo B.

E aí não é difícil concordar com a premissa:
- Sem conhecimento específico da questão a proposta mais lógica é assinalar inicialmente as probabilidades iguais:

p(tem razão | indivíduo A) = p(tem razão | indivíduo B) = 0.5


Note, caro leitor, que ao fazermos um julgamento estamos utilizando algo a respeito da qualificação "fraco e oprimido".

O que estamos analisando então? Bem, na maioria das vezes ao invés de p(tem razão | fraco e oprimido), estamos usando um substituto: p(eu gosto mais | fraco e oprimido).

Então como p(eu gosto mais | fraco e oprimido) costuma ser maior que p(eu gosto mais| não fraco e oprimido), então fazemos a análise trocada.

Mas como não cair nesta armadilha?

A primeira providência é entender o que está sendo analisado e não permitir que o foco do problema seja alterado. Em suma: fique com a questão que você quer resolver e não seja desviado dela.

Uma outra providência é usar a ideia do teste cego: retire do problema identificadores não pertinentes a solução (tal como nomes) e tente usar na solução do problema somente os dados pertinentes ao problema. Isso é mais complicado do que parece, pois escolher o que é relevante e o que não é relevante é também um exercício de controle do preconceito.

Em suma: não é algo fácil, mas é factível.

Se não houvesse também um preconceito social com relação ao ato de pensar seria tudo bem mais fácil.

quinta-feira, 2 de janeiro de 2014

Efeitos de Segunda Ordem

O primeiro post do ano merece um tópico interessante. Então eu trago para vocês os efeitos de segunda ordem (second order effects).

Estes efeitos são "o diabo que está nos detalhes" de sistemas físicos, econômicos e sociais.

Basicamente o efeito de primeira ordem é o que usamos quase sempre: a proporcionalidade. Em suma se eu dobrar a variável de controle então a saída irá dobrar. O nosso uso mais comum deste raciocínio é na famosa regra de três.

Ah... se o mundo fosse tão simples!

Para simplificar a proporcionalidade geralmente usamos taxas normalizadas. Por exemplo: nascimentos por centena de milhar de habitante e assim vai... O problema é que, principalmente no caso de populações, os efeitos de ordem superior eventualmente aparecem. Duvida? A prova é simples: se tudo for realmente proporcional então as taxas devem ser aproximadamente constantes independente do aumento de população. Por exemplo:

A taxa de natalidade não é constante (bom, a de mortalidade praticamente é). Só que aqui há duas forças em jogo: efeitos de ordem superior e efeitos de múltiplas variáveis. O conceito é mais claro usando a idéia da série de Taylor:

f(x,y) = f(0,0)+a1*x+b1*y+a2*x^2+b2*y^2+c2*x*y+...

Se tivéssemos apenas uma variável a série seria mais simples:

f(x) = f(0)+a1*x+a2*x^2+...

O efeito de segunda ordem é representado pelo coeficiente a2. No caso da mortalidade provavelmente o que causa a mudança é o efeito de múltiplas variáveis, mas não é possível descartar que o aumento de população tenha um efeito de segunda ordem em algum lugar (um exemplo de aonde o efeito de segunda ordem com a população é bem real é no PIB total).

Muito bem, e por que eu trouxe aqui o conceito do efeito de segunda ordem? Bem, porque em sistemas dinâmicos o papel do efeito de segunda ordem é função da amplitude da excitação. Em português: quanto maior for a variação inicial, maior o efeito de segunda ordem.

Isso vale para a enorme maioria dos sistemas dinâmicos... Inclusive sistemas sociais.

E é um lembrete também de ordem pessoal: que quando estamos tentando "ajeitar" ou resolver nossos problemas temos de ter cuidado com alterações muito bruscas. O que elas trazem podem ser surpresas boas ou nem tanto assim. Claro, aí vai depender de como se reage a surpresas...